我是靠谱客的博主 怕黑啤酒,这篇文章主要介绍tf.get_variable函数,现在分享给大家,希望可以做个参考。

tf.get_variable函数

复制代码
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
函数:tf.get_variable get_variable( name, shape=None, dtype=None, initializer=None, regularizer=None, trainable=True, collections=None, caching_device=None, partitioner=None, validate_shape=True, use_resource=None, custom_getter=None )

示例:

复制代码
1
2
3
4
5
6
with tf.variable_scope("foo"): v = tf.get_variable("v", [1]) # v.name == "foo/v:0" w = tf.get_variable("w", [1]) # w.name == "foo/w:0" with tf.variable_scope("foo", reuse=True): v1 = tf.get_variable("v") # The same as v above.

参数:

  • name:新变量或现有变量的名称.
  • shape:新变量或现有变量的形状.
  • dtype:新变量或现有变量的类型(默认为 DT_FLOAT).
  • initializer:创建变量的初始化器.
  • regularizer:一个函数(张量 - >张量或无);将其应用于新创建的变量的结果将被添加到集合
    tf.GraphKeys.REGULARIZATION_LOSSES 中,并可用于正则化.
  • trainable:如果为 True,还将变量添加到图形集合:GraphKeys.TRAINABLE_VARIABLES.
  • collections:要将变量添加到其中的图形集合键的列表.默认为 [GraphKeys.LOCAL_VARIABLES].
  • caching_device:可选的设备字符串或函数,描述变量应该被缓存以读取的位置.默认为变量的设备,如果不是None,则在其他设备上进行缓存.典型的用法的在使用该变量的操作所在的设备上进行缓存,通过 Switch和其他条件语句来复制重复数据删除.
  • partitioner:(可选)可调用性,它接受要创建的变量的完全定义的TensorShape 和dtype,并且返回每个坐标轴的分区列表(当前只能对一个坐标轴进行分区).validate_shape:如果为假,则允许使用未知形状的值初始化变量.如果为真,则默认情况下,initial_value的形状必须是已知的.
  • use_resource:如果为假,则创建一个常规变量.如果为真,则创建一个实验性的ResourceVariable,而不是具有明确定义的语义.默认为假(稍后将更改为真).
  • custom_getter:可调用的,将第一个参数作为真正的 getter,并允许覆盖内部的 get_variable 方法.custom_getter 的签名应该符合这种方法,但最经得起未来考验的版本将允许更改:def custom_getter(getter, *args, **kwargs).还允许直接访问所有 get_variable 参数:def custom_getter(getter, name, *args, **kwargs).创建具有修改的名称的变量的简单标识自定义getter 是:python def custom_getter(getter, name, *args, **kwargs):return getter(name + ‘_suffix’, *args, **kwargs)

返回值:

创建或存在Variable(或者PartitionedVariable,如果使用分区器).
可能引发的异常:

  • ValueError:当创建新的变量和形状时,在变量创建时违反重用,或当 initializer 的 dtype 和 dtype
    不匹配时.在 variable_scope 中设置重用.

最后

以上就是怕黑啤酒最近收集整理的关于tf.get_variable函数的全部内容,更多相关tf内容请搜索靠谱客的其他文章。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(72)

评论列表共有 0 条评论

立即
投稿
返回
顶部