TensorFlow常⽤的函数
TensorFlow 中维护的集合列表
在⼀个计算图中,可以通过集合(collection)来管理不同类别的资源。⽐如通过tf.add_to_collection函数可以将资源加⼊⼀个或多个集合中,然后通过tf.get_collection获取⼀个集合⾥⾯的所有资源(如张量,变量,或者运⾏TensorFlow程序所需的队列资源等等)。⽐如,通过
tf.add__collection('losses'))获得总损失。
集合名称集合内容使⽤场景
tf.GraphKeys.VARIABLES所有变量持久化 TensorFlow 模型
tf.GraphKeys.TRAINABLE_VARIABLES可学习的变量(⼀般指神经⽹络中的参数)模型训练、⽣成模型可视化内容
tf.GraphKeys.SUMMARIES⽇志⽣成相关的张量TensorFlow 计算可视化
tf.GraphKeys.QUEUE_RUNNERS处理输⼊的 QueueRunner输⼊处理
tf.GraphKeys.MOVING_AVERAGE_VARIABLES所有计算了滑动平均值的变量计算变量的滑动平均值
1. TensorFlow中的所有变量都会被⾃动加⼊tf.GraphKeys.VARIABLES集合中,通过tf.global_variables()函数可以拿到当前计算图上的所有变
量。拿到计算图上的所有变量有助于持久化整个计算图的运⾏状态。
2. 当构建机器学习模型时,⽐如神经⽹络,可以通过变量声明函数中的trainable参数来区分需要优化的参数(⽐如神经⽹络的参数)和其他参
数(⽐如迭代的轮数,即超参数),若trainable = True,则此变量会被加⼊tf.GraphKeys.TRAINABLE_VARIABLES集合。然后通过
⽰例
<_collection的第⼀个参数是集合的名字,第⼆个参数是要加⼊集合的内容:
def get_weight(shape, lambda1):
# 获取⼀层神经⽹络边上的权重
var = tf.Variable(tf.random_normal(shape), dtype=tf.float32)
# 将这个权重的 L2 正则化损失加⼊名称为 'losses' 的集合中
tf.add_to_collection('losses',
return var
变量初始化函数
神经⽹络中的参数是通过 TensorFlow 中的变量来组织、保存和使⽤的。TensorFlow 中提供了两种变量机制:tf.Variable和tf.get_variable.
1. 变量的类型是不可以改变的。
2. 变量的维度⼀般是不能改变的,除⾮设置参数validate_shape = False(很少去改变它)
随机数初始化函数
函数名随机数分布主要参数
tf.random_normal正态分布平均值、标准差、取值类型
新随机
平均值、标准差、取值类型
tf.random_uniform平均分布最⼤、最⼩值、取值类型
tf.random_gamma Gramma分布形状参数alpha、尺度参数beta、取值类型
常量初始化函数
函数名功能⽰例
tf.fill产⽣⼀个全部为给定数组的数组tf.fill([2,3], 9)
<_variable变量初始化函数
初始化函数功能主要参数tf.constant_initializer将变量初始化为给定常数常数的取值
tf.random_normal_initializer将变量初始化为满⾜正态分布的随机值正态分布的均值和标准差
这个数会被重新随机
正态分布的均值和标准差
tf.random_uniform_initializer将变量初始化为满⾜平均分布的随机值最⼤、最⼩值
tf.uniform_unit_scaling_initializer将变量初始化为满⾜平均分布但不影响输出数量级的随机值factor(产⽣随机值时乘以的系数)
初始化函数功能主要参数
当tf.get_variable⽤于创建变量时,它和tf.Variable的功能是基本等价的。⽽tf.get_variable与tf.Variable的最⼤的区别在于指定变量名称的参数。
对于tf.Variable函数,变量名称是⼀个可选参数,通过name='v'的形式给出;
对于tf.get_variable函数,变量名称是⼀个必填的参数。tf.get_variable函数会根据这个名字去创建或者获取变量。
详细内容见
其他
tf.clip_by_value函数将张量限定在⼀定的范围内:
import tensorflow as tf
sess = tf.InteractiveSession()
v = tf.constant([[1., 2., 3.], [4., 5., 6.]])
tf.clip_by_value(v, 2.5, 4.5).eval()  # ⼩于2.5的数值设为2.5,⼤于4.5的数值设为4.5
array([[2.5, 2.5, 3. ],
[4. , 4.5, 4.5]], dtype=float32)
tf.log对张量所有元素进⾏对数运算
tf.log(v).eval()
array([[0.      , 0.6931472, 1.0986123],
[1.3862944, 1.609438 , 1.7917595]], dtype=float32)
输⼊是两个张量
当输⼊维度不⼀致时会进⾏⼴播(broadcasting)
v1 = tf.constant([1., 2., 3., 4.])
v2 = tf.constant([4., 3., 2., 1.])
f = tf.greater(v1, v2)
f.eval()
array([False, False,  True,  True])
tf.where⽐较函数
函数有三个参数:
第⼀个选择条件根据,当选择条件为True时,会选择第⼆个参数中的值,否则使⽤第三个参数中的值:
tf.where(f, v1, v2).eval()
array([4., 3., 3., 4.], dtype=float32)
指数衰减学习率
learning_rate:事先设定的初始学习率
decay_steps: 衰减速度,staircase = True时代表了完整的使⽤⼀遍训练数据所需要的迭代轮数(= 总训练样本数/每个batch中的训练样本数) decay_rate: 衰减系数
staircase: 默认为False,此时学习率随迭代轮数的变化是连续的(指数函数);为True时,global_step/decay_steps会转化为整数,此时学习率便是阶梯函数
⽰例:
TRAINING_STEPS = 100
global_step = tf.Variable(0)
LEARNING_RATE = ponential_decay(
0.1, global_step, 1, 0.96, staircase=True)
x = tf.stant(5, dtype=tf.float32), name="x")
y = tf.square(x)
train_op = tf.train.GradientDescentOptimizer(LEARNING_RATE).minimize(
y, global_step=global_step)
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
for i in range(TRAINING_STEPS):
sess.run(train_op)
if i % 10 == 0:
LEARNING_RATE_value = sess.run(LEARNING_RATE)
x_value = sess.run(x)
print("After %s iteration(s): x%s is %f, learning rate is %f." %
(i + 1, i + 1, x_value, LEARNING_RATE_value))
After 1 iteration(s): x1 is 4.000000, learning rate is 0.096000.
After 11 iteration(s): x11 is 0.690561, learning rate is 0.063824.
After 21 iteration(s): x21 is 0.222583, learning rate is 0.042432.
After 31 iteration(s): x31 is 0.106405, learning rate is 0.028210.
After 41 iteration(s): x41 is 0.065548, learning rate is 0.018755.
After 51 iteration(s): x51 is 0.047625, learning rate is 0.012469.
After 61 iteration(s): x61 is 0.038558, learning rate is 0.008290.
After 71 iteration(s): x71 is 0.033523, learning rate is 0.005511.
After 81 iteration(s): x81 is 0.030553, learning rate is 0.003664.
After 91 iteration(s): x91 is 0.028727, learning rate is 0.002436.
正则化
w = tf.constant([[1., -2.], [-3, 4]])
with tf.Session() as sess:
print(sess.ib.layers.l1_regularizer(.5)(w)))  # 0.5 为正则化权重
print(sess.ib.layers.l2_regularizer(.5)(w)))
5.0
7.5
滑动平均模型
滑动平均模型会将每⼀轮迭代得到的模型综合起来,从⽽使得最终得到的模型在测试数据上更加健壮(robust)。
ExponentialMovingAverage 对每⼀个变量会维护⼀个影⼦变量(shadow variable),这个影⼦变量的初始值就是相应变量的初始值,⽽每次运⾏变量更新时,影⼦变量的值会更新为:
shadow_variable=decay×shadow_variable+(1−decay)×variable
shadow_variable 为影⼦变量,
trunc函数是什么variable 为待更新变量
decay 为衰减率,它越⼤模型越趋于稳定,在实际应⽤中decay⼀般会设置为接近 1 的数。
还可以使⽤num_updates参数来动态设置decay的⼤⼩:
decay=min
decay,1+num_updates 10+num_updates
定义变量及滑动平均类
import tensorflow as tf
# 定义⼀个变量⽤来计算滑动平均,且其初始值为0,类型必须为实数
v1 = tf.Variable(0, dtype=tf.float32)
# step变量模拟神经⽹络中迭代的轮数,可⽤于动态控制衰减率
step = tf.Variable(0, trainable=False)
# 定义⼀个滑动平均的类(class)。初始化时给定了衰减率为0.99和控制衰减率的变量step
ema = tf.train.ExponentialMovingAverage(0.99, step)
# 定义⼀个更新变量滑动平均的操作。这⾥需要给定⼀个列表,每次执⾏这个操作时,此列表中的变量都会被更新。maintain_averages_op = ema.apply([v1])
查看不同迭代中变量取值的变化。
with tf.Session() as sess:
{}
# 初始化
init_op = tf.global_variables_initializer()
sess.run(init_op)
# 通过ema.average(v1)获取滑动平均后的变量取值。在初始化之后变量v1的值和v1 的滑动平均均为0    print(sess.run([v1, ema.average(v1)]))
# 更新变量v1的取值
sess.run(tf.assign(v1, 5))
sess.run(maintain_averages_op)
print(sess.run([v1, ema.average(v1)]))
# 更新step和v1的取值
sess.run(tf.assign(step, 10000))
sess.run(tf.assign(v1, 10))
sess.run(maintain_averages_op)
print(sess.run([v1, ema.average(v1)]))
# 更新⼀次v1的滑动平均值
sess.run(maintain_averages_op)
print(sess.run([v1, ema.average(v1)]))
[0.0, 0.0]
[5.0, 4.5]
[10.0, 4.555]
[10.0, 4.60945]

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。