我是靠谱客的博主 自然曲奇,最近开发中收集的这篇文章主要介绍tf测试题,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

一、选择题
1、已知:大脑是有很多个叫做神经元的东西构成,神经网络是对大脑的简单的数学表达。每一个神经元都有输入、处理函数和输出。神经元组合起来形成了网络,可以拟合任何函数。 为了得到最佳的神经网络,我们用梯度下降方法不断更新模型给定上述关于神经网络的描述,什么情况下神经网络模型被称为深度学习模型?A.加入更多层,使神经网络的深度增加B.有维度更高的数据C.当这是一个图形识别的问题时D.以上都不正确答案:A
2、训练CNN时,可以对输入进行旋转、平移、缩放等预处理提高模型泛化能力。这么说是对,还是不对?A.对 B.不对答案:A
3、下列哪一项在神经网络中引入了非线性?A.随机梯度下降B.修正线性单元(ReLU)C.卷积函数D.以上都不正确答案:B
4、在一个神经网络中,知道每一个神经元的权重和偏差是最重要的一步。如果知道了神经元准确的权重和偏差,便可以近似任何函数,但怎么获知每个神经的权重和偏移呢?A. 搜索每个可能的权重和偏差组合,直到得到最佳值B.赋予一个初始值,然后检查跟最佳值的差值,不断迭代调整权重C. 随机赋值,听天由命D. 以上都不正确的正确答案是:B
5、输入图片大小为200×200,依次经过一层卷积(kernel size 5×5,padding 1,stride 2),pooling(kernel size 3×3,padding 0,stride 1),又一层卷积(kernel size 3×3,padding 1,stride 1)之后,输出特征图大小为A. 95B. 96C. 97D. 98答案: C
6、当在卷积神经网络中加入池化层(pooling layer)时,变换的不变性会被保留,是吗?A. 不知道B.看情况C. 是D. 否正确答案是:C
7、在选择神经网络的深度时,下面哪些参数需要考虑?(1) 神经网络的类型(如MLP,CNN)(2) 输入数据(3) 计算能力(硬件和软件能力决定)(4) 学习速率(5) 映射的输出函数A. (1),(2),(4),(5)B. (2),(3),(4),(5)C. 都需要考虑D. (1),(3),(4),(5)正确答案是:C
8、考虑某个具体问题时,你可能只有少量数据来解决这个问题。不过幸运的是你有一个类似问题已经预先训练好的神经网络。可以用下面哪种方法来利用这个预先训练好的网络?A. 把除了最后一层外所有的层都冻结,重新训练最后一层B. 对新数据重新训练整个模型C. 只对最后几层进行调参(fine tune)D. 对每一层模型进行评估,选择其中的少数来用正确答案是:C
9、增加卷积核的大小对于改进卷积神经网络的效果是必要的吗?A. 是B.否正确答案是:B
10、假设我们已经在ImageNet数据集(物体识别)上训练好了一个卷积神经网络。然后给这张卷积神经网络输入一张全白的图片。对于这个输入的输出结果为任何种类的物体的可能性都是一样的,对吗?A. 对的B. 不知道C. 看情况D. 不对正确答案是:D
11、对于一个分类任务,如果开始时神经网络的权重不是随机赋值的,而是都设成0,下面哪个叙述是正确的?A. 其他选项都不对B. 没啥问题,神经网络会正常开始训练C. 神经网络可以训练,但是所有的神经元最后都会变成识别同样的东西D. 神经网络不会开始训练,因为没有梯度改变正确答案是:C
12、对于一个图像识别问题(在一张照片里找出一只猫),下面哪种神经网络可以更好地解决这个问题?A. 循环神经网络B. 感知机C. 多层感知机D. 卷积神经网络正确答案是:D
13、对于神经网络的说法, 下面正确的是 : (1) 增加神经网络层数, 可能会增加测试数据集的分类错误率(2) 减少神经网络层数, 总是能减小测试数据集的分类错误率(3) 增加神经网络层数, 总是能减小训练数据集的分类错误率A. (1)B. (1) 和 (3)C. (1 )和 (2)D. (2)正确答案是:A
14、深度学习与机器学习算法之间的区别在于,后者过程中无需进行特征提取工作,也就是说,我们建议在进行深度学习过程之前要首先完成特征提取的工作。这种说法是:A. 正确的B. 错误的正确答案是: B
15、下列哪一项属于特征学习算法(representation learning algorithm)?A .K近邻算法B .随机森林C.神经网络D.都不属于正确答案是:C
16、假设你有5个大小为7x7、边界值为0的卷积核,同时卷积神经网络第一层的深度为1。此时如果你向这一层传入一个维度为224x224x3的数据,那么神经网络下一层所接收到的数据维度是多少?A. 218x218x5B. 217x217x8C. 217x217x3D. 220x220x5正确答案是:A
17、假设有一个如下定义的神经网络:如果我们去掉ReLU层,这个神经网络仍能够处理非线性函数,这种说法是:A. 正确的B. 错误的正确答案是: B
18、深度学习可以用在下列哪些NLP任务中?A. 情感分析B. 问答系统C. 机器翻译D. 所有选项正确答案是:D
19、给定一个长度为n的不完整单词序列,我们希望预测下一个字母是什么。比如输入是“predictio”(9个字母组成),希望预测第十个字母是什么。下面哪种神经网络结构适用于解决这个工作?A. 循环神经网络B. 全连接神经网络C. 受限波尔兹曼机D. 卷积神经网络正确答案是:A
20、梯度爆炸问题是指在训练深度神经网络的时候,梯度变得过大而损失函数变为无穷。在RNN中,下面哪种方法可以较好地处理梯度爆炸问题?A. 用改良的网络结构比如LSTM和GRUsB. 梯度裁剪C. DropoutD. 所有方法都不行正确答案是: B
21、下面哪种方法没办法直接应用于自然语言处理的任务?A. 去语法模型B. 循环神经网络C. 卷积神经网络D. 主成分分析(PCA)正确答案是:D
22、在下列哪些应用中,我们可以使用深度学习来解决问题?A. 蛋白质结构预测B. 化学反应的预测C. 外来粒子的检测D. 所有这些正确答案是:D
23、在CNN中使用1×1卷积时,下列哪一项是正确的?A. 它可以帮助降低维数B. 可以用于特征池C. 由于小的内核大小,它会减少过拟合D. 所有上述正确答案是:D
24、利用机器视觉可以解决的问题为()A.图片识别B.目标检测C.视频理解D. 以上都是答案:D
25、强化学习方法用于的应用是()A.虚拟游戏B.机器人C.自动驾驶D.全部答案: D
26、TensorFlow 2的特点有()A. 不支持动态图优先模式B. 在计算时可以同时获得计算图与数值结果,不可以代码中调试实时打印数据C. 搭建网络也像搭积木一样,层层堆叠,非常符合软件开发思维。D.以上全部答案:B
27、在 TensorFlow 中间,为了表达方便,一般把()称为张量。A.标量B.矢量C.矩阵D.以上全部答案:D
28、tf.Variable 类型在普通的张量类型基础上添加了 name,() 属性来支持计算图的构建。A.dataB.trainableC.scopeD.全部答案:B
29、通过 ( )可创建任意形 状全 0张量.A. tf.zeros()B. tf.ones()C.tf.zeros_like()D.tf.ones_like()答案:B
30、在a = tf.ones([2,3])这句之后,执行tf.zeros_like(a)的功能是( )A.建立一个二行三列的全零张量B.建立一个全零张量C.建立一个全一张量D.建立一个二行三列的全一张量答案:A
31、tf.random.normal(shape, mean=0.0, stddev=1.0)可以创建形状为 ( ),均值为 ( ),标准差为 ( )的正态分布。A.mean shape stddevB.stddev mean shapeC.shape mean stddevD.以上都不对答案:C
32、创建采样自区间[0,1],shape为[2,2]的矩阵的语句为( )A.tf.random.uniform(2,2)B.tf.random.uniform([2,2])C.tf.random([2,2])D.tf.random.uniform([2])答案:B
33、标量是( )。A. 就是一个简单的数字B. 维度数为 0C. shape 为 []D. 以上都是答案:D
34、经过 tf.keras.losses.mse(或 tf.keras.losses.MSE)返回每个样本上的( )值A. 误差B.属性C.数量D.以上都不对答案:A
35、通过????????????????????:????????????:????????????????切片方式可以方便地提取一段数据,其中( )为开始读取位置的 索引,( )为结束读取位置的索引(不包含 () 位),( ) 为读取步长。A. end start start ????????????????B.start end step endC. ???????????????????? ???????????? end ????????????????D. 以上都不对答案:C
36. x[0,::]表示( )A. 读取所有图片B. 读取第 1 张图片的所有行C.读取第2张图片的所有行D.以上都不对答案:B
37. 表示取所有图片,隔行采样,隔列采样,所有通道信息的语句是( )A.x[1:,0:28:2,0:28:2,:]B. x[:,:,0:28:2,0:28:2]C. x[:,0:28:1,0:281,:]D. x[:,0:28:2,0:28:2,:]答案:D
38. 38. 通过( )可在指定的 axis 轴前可以插入一个新的维度。A.tf.expand_dims(x, axis)B.tf.squeeze(x, axis)C.tf.transpose(x, perm)D.以上都不对答案:A
39. 39.轻量级的复制操作是( )A.tileB.BroadcastingC.copyD. 以上都不对答案:B
40. 整除和余除也是常见的运算之一,分别通过( ) 和( )运算符实现。A./ %B.% //C.// %D.// /答案:C
41. 能完成tensorflow乘方操作的方式有( )A.tf.pow(x, a)B. 通过运算符**实现???? ∗∗ ????C. 通过循环写程序实现D. 以上都正确答案:D
42. 在 TensorFlow 中,可以通过 tf.concat(tensors, axis),其中tensors 保存了( ),axis 指定( )A. 所有需要合并的张量List 需要合并的维度B. 需要合并的维度 所有需要合并的张量ListC. 需要合并的维度 需要合并的维度D.需要合并的张量 需要合并的张量答案:A
43. 43. 卷积神经网络VGG16名称中16指的是() A.论文发表于2016年 B.网络总共有16层 C.网络有16层的参数需要训练 D.VGG发表的第16代网络答案:B
44. 44. Keras中想要在模型中加入尺寸为2*2的最大池化层,相应的Python语句是()A. model.add(MaxPool2D[2])B.model.add(AvgPool2D(2))C.model.add(AvgPool2D[2])D.model.add(MaxPool2D(2))答案:D
45. 45. 在神经网络中,“梯度消失”问题的主要来源是()A.被Dropout丢弃B.被Pooling丢弃C.梯度为负数D.梯度趋近于零答案:C
二、多项选择:
1、神经网络中参数极多,常用的初始化方法有哪些?( )A.全零初始化 B.随机初始化 C.加载预训练模型 D.使用深度信念网络答案:ABC
2、人工智能网络的常用激活函数有()A.sigmond B.tanh C.sinh D.relu E.cos答案:ABCDE
3.对于神经网络,以下哪些是超参数?( ) A.神经网络的层数(number of layers) B.神经网络的学习率(learning rate) C.神经网络的权重(weights) D.神经网络的偏置(bias)答案:AB
4.以关于梯度下降法叙述正确的有?( ) A. 精度下降方法迭代时将沿着梯度方向进行更新 B.梯度下降方法迭代时将沿着负梯度方向进行更新 C.梯度方向是使得函数值下降最快的方向 D.梯度方向是使得函数值上升降最快的方向答案:BD
5.常用的池化层有哪些?( )A.MaxPooling B.AveragePooling C.MinPooling D.MedianPooling答案:AB
6.Keras中想要引入Dropout,每次只让四分之三的神经元参与训练,相应的Python语句是()A.model.add(Dropout(0.25))B.model.add(Dropout(0.75))C.model.add(Dropout(0.5))D.model.add(Dropout(0.333))答案:A
7.相对于普通的神经网络,循环神经网络(RNN)的“循环”主要体现在()A.训练过程中的反向传播次数更多B.训练经过一定轮次之后将参数归零C.深层节点的输出会反过来影响浅层节点D.每个节点自循环答案:CD
三判断
1、本质上深度学习和神经网络所指代的不是同一类算法答案:错误
2、通过 tf.where(cond, a, b)操作可以根据 cond 条件的真假从 a 或 b 中读取数据。答案:正确
3、通过 tf.scatter_nd(indices, updates, shape)可以高效地刷新张量的部分数据,不只在 全 0 张量的白板上面刷新,因此不需要结合其他操作来实现现有张量的数据刷新功能。答案:错误
4、在 TensorFlow 中,要实现全连接层,只需要定义好权值张量 W 和偏置张量 b,并利用 TensorFlow 提供的批量矩阵相乘函数 tf.matmul()即可完成网络层的计算。答案 正确
5、在设计全连接网络时,网络的结构配置等超参数不可以按着经验法则自由设置,这样做会影响网络精度。( )答案:错误
6、利用误差反向传播算法进行反向计算的过程也叫反向传播(Backward propagation)。( )答案:正确
7、概率分布 [0,1]区间的输出和概率的分布范围契合,不能通过 Sigmoid 函数将输出转译为概率输出。( )答案:错误
8、ReLU 函数定义为 ????????????????(????) ≔ min(0,????)( )答案:错误
9、除了可以使用函数式接口 tf.nn.relu 实现 ReLU 函数外,还可以像 Dense 层一样将 ReLU 函数作为一个网络层添加到网络中,对应的类为 layers.ReLU()类()答案:正确
10、卷积神经网络和循环神经网络都擅长处理图像数据。()答案:错误

最后

以上就是自然曲奇为你收集整理的tf测试题的全部内容,希望文章能够帮你解决tf测试题所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(41)

评论列表共有 0 条评论

立即
投稿
返回
顶部