python调⽤训练好的模型_tensorflow训练好的模型,怎么调⽤展开全部
基本使⽤e69da5e887aa3231313335323631343130323136353331333361306438
使⽤ TensorFlow, 你必须明⽩ TensorFlow:
使⽤图 (graph) 来表⽰计算任务.
在被称之为 会话 (Session) 的上下⽂ (context) 中执⾏图.
使⽤ tensor 表⽰数据.
通过 变量 (Variable) 维护状态.
使⽤ feed 和 fetch 可以为任意的操作(arbitrary operation) 赋值或者从其中获取数据.
综述
TensorFlow 是⼀个编程系统, 使⽤图来表⽰计算任务. 图中的节点被称之为 op
(operation 的缩写). ⼀个 op 获得 0 个或多个 Tensor, 执⾏计算,
产⽣ 0 个或多个 Tensor. 每个 Tensor 是⼀个类型化的多维数组.
例如, 你可以将⼀⼩组图像集表⽰为⼀个四维浮点数数组,
这四个维度分别是 [batch, height, width, channels].
⼀个 TensorFlow 图描述了计算的过程. 为了进⾏计算, 图必须在 会话 ⾥被启动.
会话 将图的 op 分发到诸如 CPU 或 GPU 之类的 设备 上, 同时提供执⾏ op 的⽅法.
这些⽅法执⾏后, 将产⽣的 tensor 返回. 在 Python 语⾔中, 返回的 tensor 是
numpy ndarray 对象; 在 C 和 C++ 语⾔中, 返回的 tensor 是
tensorflow::Tensor 实例.
计算图
TensorFlow 程序通常被组织成⼀个构建阶段和⼀个执⾏阶段. 在构建阶段, op 的执⾏步骤
被描述成⼀个图. 在执⾏阶段, 使⽤会话执⾏执⾏图中的 op.
例如, 通常在构建阶段创建⼀个图来表⽰和训练神经⽹络, 然后在执⾏阶段反复执⾏图中的训练 op.
TensorFlow ⽀持 C, C++, Python 编程语⾔. ⽬前, TensorFlow 的 Python 库更加易⽤,
它提供了⼤量的辅助函数来简化构建图的⼯作, 这些函数尚未被 C 和 C++ 库⽀持.
三种语⾔的会话库 (session libraries) 是⼀致的.
构建图
构建图的第⼀步, 是创建源 op (source op). 源 op 不需要任何输⼊, 例如 常量 (Constant). 源 op 的输出被传递给其它 op 做运算.
Python 库中, op 构造器的返回值代表被构造出的 op 的输出, 这些返回值可以传递给其它
op 构造器作为输⼊.
TensorFlow Python 库有⼀个默认图 (default graph), op 构造器可以为其增加节点. 这个默认图对
许多程序来说已经⾜够⽤了. 阅读 Graph 类 ⽂档
来了解如何管理多个图.
import tensorflow as tf
# 创建⼀个常量 op, 产⽣⼀个 1x2 矩阵. 这个 op 被作为⼀个节点
# 加到默认图中.
#
# 构造器的返回值代表该常量 op 的返回值.
matrix1 = tf.constant([[3., 3.]])
# 创建另外⼀个常量 op, 产⽣⼀个 2x1 矩阵.
matrix2 = tf.constant([[2.],[2.]])
# 创建⼀个矩阵乘法 matmul op , 把 'matrix1' 和 'matrix2' 作为输⼊.
# 返回值 'product' 代表矩阵乘法的结果.
product = tf.matmul(matrix1, matrix2)
默认图现在有三个节点, 两个 constant() op, 和⼀个matmul() op. 为了真正进⾏矩阵相乘运算, 并得到矩阵乘法的结果, 你必须在会话⾥启动这个图.
在⼀个会话中启动图
构造阶段完成后, 才能启动图. 启动图的第⼀步是创建⼀个 Session 对象, 如果⽆任何创建参数,
会话构造器将启动默认图.
欲了解完整的会话 API, 请阅读Session 类.
# 启动默认图.
sess = tf.Session()
# 调⽤ sess 的 'run()' ⽅法来执⾏矩阵乘法 op, 传⼊ 'product' 作为该⽅法的参数.
# 上⾯提到, 'product' 代表了矩阵乘法 op 的输出, 传⼊它是向⽅法表明, 我们希望取回
# 矩阵乘法 op 的输出.
#
# 整个执⾏过程是⾃动化的, 会话负责传递 op 所需的全部输⼊. op 通常是并发执⾏的.
#
# 函数调⽤ 'run(product)' 触发了图中三个 op (两个常量 op 和⼀个矩阵乘法 op) 的执⾏.
#
# 返回值 'result' 是⼀个 numpy `ndarray` 对象.
python怎么读的result = sess.run(product)
print result
# ==> [[ 12.]]
# 任务完成, 关闭会话.
sess.close()
Session 对象在使⽤完后需要关闭以释放资源. 除了显式调⽤ close 外, 也可以使⽤ "with" 代码块
来⾃动完成关闭动作.
with tf.Session() as sess:
result = sess.run([product])
print result
在实现上, TensorFlow 将图形定义转换成分布式执⾏的操作, 以充分利⽤可⽤的计算资源(如 CPU
或 GPU). ⼀般你不需要显式指定使⽤ CPU 还是 GPU, TensorFlow 能⾃动检测. 如果检测到 GPU, TensorFlow 会尽可能地利⽤到的第⼀个 GPU 来执⾏操作.
如果机器上有超过⼀个可⽤的 GPU, 除第⼀个外的其它 GPU 默认是不参与计算的. 为了让 TensorFlow
使⽤这些 GPU, 你必须将 op 明确指派给它们执⾏. Device 语句⽤来指派特定的 CPU 或 GPU
执⾏操作:
with tf.Session() as sess:
with tf.device("/gpu:1"):
matrix1 = tf.constant([[3., 3.]])
matrix2 = tf.constant([[2.],[2.]])
product = tf.matmul(matrix1, matrix2)
...
设备⽤字符串进⾏标识. ⽬前⽀持的设备包括:
"/cpu:0": 机器的 CPU.
"/gpu:0": 机器的第⼀个 GPU, 如果有的话.
"/gpu:1": 机器的第⼆个 GPU, 以此类推.
阅读使⽤GPU章节, 了解 TensorFlow GPU 使⽤的更多信息.
交互式使⽤
⽂档中的 Python ⽰例使⽤⼀个会话 Session 来
启动图, 并调⽤ Session.run() ⽅法执⾏操作.
为了便于使⽤诸如 IPython 之类的 Python 交互环境, 可以使⽤
InteractiveSession 代替
Session 类, 使⽤ Tensor.eval()
和 Operation.run() ⽅法代替
Session.run(). 这样可以避免使⽤⼀个变量来持有会话.
# 进⼊⼀个交互式 TensorFlow 会话.
import tensorflow as tf
sess = tf.InteractiveSession()
x = tf.Variable([1.0, 2.0])
a = tf.constant([3.0, 3.0])
# 使⽤初始化器 initializer op 的 run() ⽅法初始化 'x'
x.initializer.run()
# 增加⼀个减法 sub op, 从 'x' 减去 'a'. 运⾏减法 op, 输出结果
sub = tf.sub(x, a)
print sub.eval()
# ==> [-2. -1.]
Tensor
TensorFlow 程序使⽤ tensor 数据结构来代表所有的数据, 计算图中, 操作间传递的数据都是 tensor.你可以把 TensorFlow tensor 看作是⼀个 n 维的数组或列表. ⼀个 tensor 包含⼀个静态类型 rank, 和⼀个 shape. 想了解 TensorFlow 是如何处理这些概念的, 参见
Rank, Shape, 和 Type.
变量
Variables for more details.
变量维护图执⾏过程中的状态信息. 下⾯的例⼦演⽰了如何使⽤变量实现⼀个简单的计数器. 参见
变量 章节了解更多细节.
# 创建⼀个变量, 初始化为标量 0.
state = tf.Variable(0, name="counter")
# 创建⼀个 op, 其作⽤是使 state 增加 1
one = tf.constant(1)
new_value = tf.add(state, one)
update = tf.assign(state, new_value)
# 启动图后, 变量必须先经过`初始化` (init) op 初始化,
# ⾸先必须增加⼀个`初始化` op 到图中.
init_op = tf.initialize_all_variables()
# 启动图, 运⾏ op
with tf.Session() as sess:
# 运⾏ 'init' op
sess.run(init_op)
# 打印 'state' 的初始值
print sess.run(state)
# 运⾏ op, 更新 'state', 并打印 'state'
for _ in range(3):
sess.run(update)
print sess.run(state)
# 输出:
# 0
# 1
# 2
# 3
代码中 assign() 操作是图所描绘的表达式的⼀部分, 正如 add() 操作⼀样. 所以在调⽤ run()
执⾏表达式之前, 它并不会真正执⾏赋值操作.
通常会将⼀个统计模型中的参数表⽰为⼀组变量. 例如, 你可以将⼀个神经⽹络的权重作为某个变量存储在⼀个 tensor 中.在训练过程中, 通过重复运⾏训练图, 更新这个 tensor.
Fetch
为了取回操作的输出内容, 可以在使⽤ Session 对象的 run() 调⽤ 执⾏图时, 传⼊⼀些 tensor,
这些 tensor 会帮助你取回结果. 在之前的例⼦⾥, 我们只取回了单个节点 state, 但是你也可以取回多个
tensor:
input1 = tf.constant(3.0)
input2 = tf.constant(2.0)
input3 = tf.constant(5.0)
intermed = tf.add(input2, input3)
mul = tf.mul(input1, intermed)
with tf.Session() as sess:
result = sess.run([mul, intermed])
print result
# 输出:
# [array([ 21.], dtype=float32), array([ 7.], dtype=float32)]
需要获取的多个 tensor 值,在 op 的⼀次运⾏中⼀起获得(⽽不是逐个去获取 tensor)。
Feed
上述⽰例在计算图中引⼊了 tensor, 以常量或变量的形式存储. TensorFlow 还提供了 feed 机制, 该机制
可以临时替代图中的任意操作中的 tensor 可以对图中任何操作提交补丁, 直接插⼊⼀个 tensor.
feed 使⽤⼀个 tensor 值临时替换⼀个操作的输出结果. 你可以提供 feed 数据作为 run() 调⽤的参数.
feed 只在调⽤它的⽅法内有效, ⽅法结束, feed 就会消失. 最常见的⽤例是将某些特殊的操作指定为 "feed" 操作,
标记的⽅法是使⽤ tf.placeholder() 为这些操作创建占位符.
input1 = tf.placeholder(tf.float32)
input2 = tf.placeholder(tf.float32)
output = tf.mul(input1, input2)
with tf.Session() as sess:

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。