我是靠谱客的博主 阔达小白菜,这篇文章主要介绍tensorflow常用基础函数汇总,现在分享给大家,希望可以做个参考。

1. tf.reduce_mean计算张量沿着指定维度的平均值
复制代码
1
2
tf.reduce_mean(张量名,axis=操作轴)
2. tf.reduce_sum计算张量沿着指定维度的和
复制代码
1
2
tf.reduce_sum(张量名,axis=操作轴)
3. tf.Variable ()将变量标记为“可训练”,被标记的变量会在反向传播中记录梯度信息。神经网络训练中,常用该函数标记待训练参数。
复制代码
1
2
tf.Variable(初始值) w=tf.Variable(tf.random.normal([2, 2], mean=0, stddev=1))
4. 对应元素的四则运算:tf.add,tf.subtract,tf.multiply,tf.divide ; 只有维度相同的张量才可以做四则运算
复制代码
1
2
tf.add(张量1,张量2) tf.subtract(张量1,张量2) tf.multiply(张量1,张量2) tf.divide(张量1,张量2)
5. 平方、次方与开方:tf.square,tf.pow,tf.sqrt
复制代码
1
2
tf.square(张量名) tf.pow(张量名,n次方数) tf.sqrt(张量名)
6. 矩阵乘:tf.matmul
复制代码
1
2
tf.matmul(矩阵1,矩阵2)
7. tf.data.Dataset.from_tensor_slices 构建特征/标签对数据集
复制代码
1
2
3
4
切分传入张量的第一维度,生成输入特征/标签对,构建数据集 data = tf.data.Dataset.from_tensor_slices((输入特征,标签)) (Numpy和Tensor格式都可用该语句读入数据)
8. tf.GradientTape() 用途:记录计算过程并求导
复制代码
1
2
with结构记录计算过程,gradient求出张量的梯度 with tf.GradientTape() as tape: 若干个计算过程 grad = tape.gradient(函数,对谁求导)
9. tf.one_hot 独热编码:在分类问题中,常用独热编码做标签,标记分类:1表示是,0表示非
复制代码
1
2
tf.one_hot()函数将待转换数据,转换为one-hot形式的数据输出。 tf.one_hot(待转换数据,depth=几分类)
10. tf.nn.softmax() 使数据符合概率分布,softmax函数的作用就是归一化。
复制代码
1
2
当n分类的n个输出(y0,y1,...yn-1)通过softmax函数便符合概率分布了 tf.nn.softmax(张量)
11. assign_sub 赋值操作,更新参数的值并返回
复制代码
1
2
调用assign_sub前,先用tf.Variable定义变量w为可训练(可自更新) w.assign_sub(w要自减的内容)
12. tf.argmax() 返回张量沿着指定维度最大值的索引
复制代码
1
2
tf.argmax(张量名,axis=操作轴)

最后

以上就是阔达小白菜最近收集整理的关于tensorflow常用基础函数汇总的全部内容,更多相关tensorflow常用基础函数汇总内容请搜索靠谱客的其他文章。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(58)

评论列表共有 0 条评论

立即
投稿
返回
顶部