我是靠谱客的博主 高大刺猬,最近开发中收集的这篇文章主要介绍机器学习常见面试题总结,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

序号题目难度ABCDEF正确答案
1关于 Logit 回归和 SVM 不正确的是简单Logit 回归目标函数是最小化后验概率Logit 回归可以用于预测事件发生概率的大小SVM 目标是结构风险最小化SVM 可以有效避免模型过拟合A
2是否能用神经网络算法设计逻辑回归算法?简单A
3关于支持向量机 SVM,下列说法错误的是简单L2 正则项,作用是最大化分类间隔,使得分类器拥有更强的泛化能力Hinge 损失函数,作用是最小化经验分类错误分类间隔为,||w||代表向量的模当参数 C 越小时,分类间隔越大,分类错误越多,趋于欠学习C
4决策树的父节点和子节点的熵的大小关系是什么?简单决策树的父节点更大子节点的熵更大两者相等根据具体情况而定B
5以下哪种方法属于判别式模型(discriminative model)简单隐马模型(HMM)朴素贝叶斯LDA支持向量机D
6下面关于 ID3 算法中说法错误的是简单ID3 算法要求特征必须离散化信息增益可以用熵,而不是 GINI 系数来计算选取信息增益最大的特征,作为树的根节点ID3 算法是一个二叉树模型D
7以下属于欧式距离特性的有简单旋转不变性尺度缩放不变性不受量纲影响的特性A
8如果以特征向量的相关系数作为模式相似性测度,则影响聚类算法结果的主要因素有简单已知类别样本质量分类准则量纲B
9一监狱人脸识别准入系统用来识别待进入人员的身份,此系统一共包括识别 4 种不同的人员:狱警,小偷,送餐员,其他。下面哪种学习方法最适合此种应用需求:简单二分类问题多分类问题层次聚类问题k-中心点聚类问题回归问题结构分析问题B
10以下说法中错误的是简单SVM 对噪声(如来自其他分部的噪声样本)具备鲁棒性在 adaboost 算法中,所有被分错样本的权重更新比例不相同boosting 和 bagging 都是组合多个分类器投票的方法,二者都是根据单个分类器的正确率确定其权重给定 n 个数据点,如果其中一半用于训练,一半用户测试,则训练误差和测试误差之间的差别会随着 n 的增加而减少的C
11位势函数法的积累势函数 K(x)的作用相当于 Bayes 判决中的简单后验概率先验概率类概率密度类概率密度与先验概率的和A
12下列哪些不特别适合用来对高维数据进行降维简单LASSO主成分分析法聚类分析小波分析法线性判别法拉普拉斯特征映射C
13对数几率回归(logistics regression)和一般回归分析有什么区别?简单对数几率回归是设计用来预测事件可能性的对数几率回归可以用来度量模型拟合程度对数几率回归可以用来估计回归系数以上所有D
14在一个 n 维的空间中, 最好的检测 outlier(离群点)的方法是简单作正态分布概率图作盒形图马氏距离作散点图C
15一般,k-NN 最近邻方法在( )的情况下效果较好简单样本较多但典型性不好样本较少但典型性好样本呈团状分布样本呈链状分布B
16我们想在大数据集上训练决策树, 为了使用较少时间, 我们可以简单增加树的深度增加学习率 (learning rate)减少树的深度减少树的数量C
17符号集 a 、 b 、 c 、 d ,它们相互独立,相应概率为 1/2 、 1/4 、 1/8/ 、 1/16 ,其中包含信息量最小的符号是简单abcdA
18在数据清理中,下面哪个不是处理缺失值的方法?简单估算整例删除变量删除成对删除D
19"过拟合是有监督学习的挑战,而不是无监督学习"以上说法是否正确简单正确错误B
20逻辑回归与多元回归分析有哪些不同?简单逻辑回归预测某事件发生的概率逻辑回归有较高的拟合效果逻辑回归回归系数的评估以上全选D
21支持向量是那些最接近决策平面的数据点简单A
22SVM 的效率依赖于简单核函数的选择核参数软间隔参数以上所有D
23训练 SVM 的最小时间复杂度为 O(n2),那么一下哪种数据集不适合用 SVM?简单大数据集小数据集中等大小数据集和数据集大小无关A
24以下关于硬间隔 hard margin 描述正确的是简单SVM 允许分类存在微小误差SVM 允许分类是有大量误差A
25关于 SVM 泛化误差描述正确的是简单超平面与支持向量之间距离SVM 对未知数据的预测能力SVM 的误差阈值B
26如果我使用数据集的全部特征并且能够达到 100%的准确率,但在测试集上仅能达到 70%左右,这说明简单欠拟合模型很棒过拟合C
27SVM 中的代价参数表示简单交叉验证的次数使用的核误分类与模型复杂性之间的平衡以上均不是C
28SVM 中使用高斯核函数之前通常会进行特征归一化,以下关于特征归一化描述不正确的是?简单经过特征正则化得到的新特征优于旧特征特征归一化无法处理类别变量SVM 中使用高斯核函数时,特征归一化总是有用的C
29假设你训练 SVM 后,得到一个线性决策边界,你认为该模型欠拟合。假如你想修改 SVM 的参数,同样达到模型不会欠拟合的效果,应该怎么做?简单增大参数 C减小参数 C改变 C 并不起作用以上均不正确A
30假设你训练 SVM 后,得到一个线性决策边界,你认为该模型欠拟合。在下次迭代训练模型时,应该考虑简单增加训练数据减少训练数据计算更多变量减少特征C
31下面哪个属于 SVM 应用简单文本和超文本分类图像分类新文章聚类以上均是D
32判断:没有必要有一个用于应用维数降低算法的目标变量简单A
33想象一下,机器学习中有 1000 个输入特征和 1 个目标特征,必须根据输入特征和目标特征之间的关系选择 100 个最重要的特征。你认为这是减少维数的例子吗?简单不是A
34假设现在只有两个类,这种情况下 SVM 需要训练几次?简单1234A
35判断:PCA 可用于在较小维度上投影和可视化数据简单A
36以下哪种算法不能用于降低数据的维数?简单t-SNEPCALDA都不是D
37判断:降维算法是减少构建模型所需计算时间的方法之一简单A
38以下哪种技术对于减少数据集的维度会更好?简单删除缺少值太多的列删除数据差异较大的列删除不同数据趋势的列都不是A
39下图中主成分的最佳数量是多少?简单73040不知道B
40假设正在处理 10 类分类问题,并且想知道 LDA 最多可以产生几个判别向量。以下哪个是正确答案?简单2092111B
41Logistic Regression 主要用于回归吗?简单B
42是否可以对三分问题应用逻辑回归算法?简单A
43Logistic regression(逻辑回归)是一种监督式机器学习算法吗?简单A
44在训练逻辑回归之前需要对特征进行标准化简单B
45分析逻辑回归表现的一个良好的方法是 AIC,它与线性回归中的 R 平方相似。有关 AIC,以下哪项是正确的?简单具有最小 AIC 值的模型更好具有最大 AIC 值的模型更好视情况而定以上都不是A
46在逻辑回归输出与目标对比的情况下,以下评估指标中哪一项不适用?简单AUC-ROC准确度Logloss均方误差D
47使用以下哪种算法进行变量选择?简单LASSORidge两者都不是A
48以下哪些选项为真?简单线性回归误差值必须正态分布,但是在 Logistic 回归的情况下,情况并非如此逻辑回归误差值必须正态分布,但是在线性回归的情况下,情况并非如此线性回归和逻辑回归误差值都必须正态分布线性回归和逻辑回归误差值都不能正态分布A
49所谓几率,是指发生概率和不发生概率的比值。所以,抛掷一枚正常硬币,正面朝上的几率(odds)为多少?简单0.51都不是B
50如果以特征向量的相关系数作为模式相似性测度,则影响聚类算法结果的主要因素有简单已知类别样本质量分类准则量纲B
51假设,下图是逻辑回归的代价函数,现在,图中有多少个局部最小值?简单1234D
52在统计模式分类问题中,当先验概率未知时,可以使用简单最小损失准则最小最大损失准则最小误判概率准则B
53影响基本 K-均值算法的主要因素有简单BoostingBaggingStackingMappingB
54以下不属于影响聚类算法结果的主要因素有简单已知类别的样本质量分类准则特征选取模式相似性测度A
55对于任意值“x”,考虑到() Logistic(x):是任意值“x”的逻辑(Logistic)函数 Logit(x):是任意值“x”的 logit 函数 Logit_inv(x):是任意值“x”的逆逻辑函数 以下哪一项是正确的?简单Logistic(x)= Logit(x)Logistic(x)= Logit_inv(x)Logit_inv(x)= Logit(x)都不是B
56下面哪个选项中哪一项属于确定性算法?简单PCAK-Means以上都不是A
57选择 Logistic 回归中的 One-Vs-All 方法中的哪个选项是真实的简单我们需要在 n 类分类问题中适合 n 个模型我们需要适合 n-1 个模型来分类为 n 个类我们需要只适合 1 个模型来分类为 n 个类这些都没有A
58下面哪个/些超参数的增加可能会造成随机森林数据过拟合?() 1 树的数量 2 树的深度 3 学习速率简单只有 1只有 2只有 3都正确B
59下面哪一项对梯度下降(GD)和随机梯度下降(SGD)的描述是正确的? () 1 在 GD 和 SGD 中,每一次迭代中都是更新一组参数以最小化损失函数。 2 在 SGD 中,每一次迭代都需要遍历训练集中的所有样本以更新一次参数。 3 在 GD 中,每一次迭代需要使用整个训练集或子训练集的数据更新一个参数。简单只有 1只有 2只有 3都正确A
60下面哪个/些对「类型 1(Type-1)」和「类型 2(Type-2)」错误的描述是正确的?() 类型 1 通常称之为假正类,类型 2 通常称之为假负类。 类型 2 通常称之为假正类,类型 1 通常称之为假负类。 类型 1 错误通常在其是正确的情况下拒绝假设而出现。简单只有 1只有 2只有 31 和 3D
61对数损失度量函数可以取负值简单B
62假定你在神经网络中的隐藏层中使用激活函数假定你在神经网络中的隐藏层中使用激活函数 X。在特定神经元给定任意输入,你会得到输出「-0.0001」。X 可能是以下哪一个激活函数?简单ReLUtanhSIGMOID以上都是B
63假定你正在处理类属特征,并且没有查看分类变量在测试集中的分布。现在你想将 one hot encoding(OHE)应用到类属特征中。 那么在训练集中将 OHE 应用到分类变量可能要面临的困难是什么?简单分类变量所有的类别没有全部出现在测试集中类别的频率分布在训练集和测试集是不同的训练集和测试集通常会有一样的分布A 和 B 都正确D
64在线性回归问题中,我们用“R 方”来衡量拟合的好坏。在线性回归模型中增加特征值并再训练同一模型。下列哪一项是正确的?简单如果 R 方上升,则该变量是显著的如果 R 方下降,则该变量不显著单单 R 方不能反映变量重要性,不能就此得出正确结论都不正确C
65假设线性回归模型完美拟合训练数据(即训练误差为零),则下列哪项是正确的?简单测试误差一定为零测试误差一定不为零以上都不对C
66导出线性回归的参数时,我们做出下列哪种假定?() 1.因变量 y 和自变量 x 的真实关系是线性的 2.模型误差是统计独立的 3.误差通常服从一个平均值为零,标准差恒定的分布 4.自变量 x 是非随机的,无错的简单1,2 和 31,3 和 41 和 3以上都对D
67下列哪一项说明了 X,Y 之间的较强关系简单相关系数为 0.9Beta 系数为 0 的空假设的 p-value 是 0.0001Beta 系数为 0 的空假设的 t 统计量是 30都不对A
68下列关于异方差性哪项是正确的?简单线性回归有变化的误差项线性回归有恒定的误差项线性回归有零误差项以上都不对A
69我们可以通过一种叫“正规方程”的分析方法来计算线性回归的相关系数,下列关于“正规方程”哪一项是正确的?( ) 1.我们不必选择学习比率 2.当特征值数量很大时会很慢 3.不需要迭代简单1 和 21 和 32 和 31,2 和 3D
70下列哪项可以评价回归模型?( ) 1.R 方 2.调整 R 方 3.F 统计量 4.RMSE/MSE/MAE简单2 和 41 和 22,3 和 4以上所有D
71关于 Ridge 和 Lasso 回归在特征值选择上的方法,一下哪项正确?简单Ridge 回归使用特征值的子集选择Lasso 回归使用特征值的子集选择二者都使用特征值的子集选择以上都不正确B
72相关变量的相关系数可以为零,对吗?简单A
73若两个变量相关,它们之间一定有线性关系吗?简单B
74X 轴是自变量,Y 轴是因变量 下列对 A,B 各自残差和的陈述哪项正确?简单A 比 B 高A 比 B 低两者相同以上都不对C
75为了评价一个简单线性回归模型(单自变量),需要多少个参数?简单12不确定B
76关于回归和相关,下列哪项是正确的?( ) 提示:y 是因变量,x 是自变量简单在两者中,x、y 关系都是对称的在两者中,x、y 关系都是不对称的x、y 在相关情况下不对称,在回归中对称x、y 在相关情况下对称,在回归中不对称D
77假设用一个复杂回归模型拟合一个数据集,使用带固定参数 lambda 的 Ridge 回归来减小它的复杂度, 下列哪项描述了偏差和方差与 lambda 的关系?简单对于非常大的 lambda,偏差很小,方差很小对于非常大的 lambda,偏差很小,方差很大对于非常大的 lambda,偏差很大,方差很小对于非常大的 lambda,偏差很大,方差很大C
78
79可以根据平均值和中位数计算斜率吗?简单可以不可以B
80下列哪一种回归方法的相关系数没有闭式解?简单Ridge 回归Lasso 回归Ridge 回归 and Lasso 回归两者都不是B
81下列哪一个项对欠拟合和过拟合的权衡影响最大?简单多项式次数是否通过矩阵倒置或梯度下降来学习权重使用常数项A
82假设使用逻辑回归模型处理 n 元分类问题,可以用到 One-vs-rest 方法,则下列哪一项是正确的?简单在 n 元分类问题中,需要拟合 n 个模型为了分类为 n 类,需要拟合 n-1 个模型为了分类为 n 类,只需要拟合 1 个模型都不正确A
83考虑线性回归和逻辑回归中的重量/相关系数,关于 cost 函数的偏导,下列哪一项是正确的?简单都不一样都一样无法确定以上都不对B
84逻辑回归是输出结果落在[0,1]区间内,下列哪个函数用于转换概率,使其落入[0,1]?简单SigmoidModeSquareProbitA
85下列关于回归分析中的残差表述正确的是简单残差的平均值总为零残差的平均值总小于零残差的平均值总大于零残差没有此类规律C
86在线性回归问题中,我们用 R 方“R-squared”来衡量拟合的好坏。在线性回归模型中增加特征值并再训练同一模型。下列哪一项是正确的?简单如果 R 方上升,则该变量是显著的如果 R 方下降,则该变量不显著单单 R 方不能反映变量重要性,不能就此得出正确结论都不正确C
87假设线性回归模型完美拟合训练数据(即训练误差为零),则下列哪项是正确的?简单测试误差一定为零测试误差一定不为零以上都不对C
88一个人年龄和健康之间的相关系数是-1.09,据此可以得出简单年龄是健康预测的好的参考量年龄是健康预测的不好的参考量都不对C
89下列哪种方法被用于预测因变量?( ) 1.线性回归 2.逻辑回归简单1 和 212都不是B
90为了检验连续变量 x,y 之间的线性关系,下列哪种图最合适?简单散点图条形图直方图都不对A
91在导出线性回归的参数时,我们做出下列哪种假定?( ) 1.因变量 y 和自变量 x 的真实关系是线性的 2.模型误差是统计独立的 3.误差通常服从一个平均值为零,标准差恒定的分布 4.自变量 x 是非随机的,无错的简单1,2 and 31,3 and 41 and 3以上都对D
92下列哪一项说明了 X,Y 之间的较强关系?简单相关系数为 0.9Beta 系数为 0 的空假设的 p-value 是 0.0001Beta 系数为 0 的空假设的 t 统计量是 30都不对A
93下列哪项可以评价回归模型?( ) 1.R 方 R Squared 2.调整 R 方 3.F 统计量 4.RMSE/MSE/MAE简单2 和 41 和 22,3 和 4以上所有D
94假设你在训练一个线性回归模型,以下哪项是正确的?( ) 1.数据越少越易过拟合 2.假设区间小则易过拟合简单都是错的1 错 2 对1 对 2 错都是对的C
95若两个变量相关,它们之间一定有线性关系吗?简单B
96为了评价一个简单线性回归模型(单自变量),需要多少个参数?简单12不确定B
97将原始数据进行集成、变换、维度规约、数值规约是在以下哪个步骤的任务?简单频繁模式挖掘分类和预测数据预处理数据流挖掘C
98下面哪种不属于数据预处理的方法?简单变量代换离散化聚集估计遗漏值D
99什么是 KDD?简单数据挖掘与知识发现领域知识发现文档知识发现动态知识发现A
100建立一个模型,通过这个模型根据已知的变量值来预测其他某个变量值属于数据挖掘的哪一类任务?简单根据内容检索建模描述预测建模寻找模式和规则C
101以下哪种方法不属于特征选择的标准方法?简单嵌入过滤包装抽样D
102下列属于无监督学习的是简单k-meansSVM最大熵CRFA
103下列不是 SVM 核函数的是:简单多项式核函数Logistic 核函数径向基核函数Sigmoid 核函数B
104bootstrap 数据是什么意思?(提示:考“bootstrap”和“boosting”区别)简单有放回地从总共 M 个特征中抽样 m 个特征无放回地从总共 M 个特征中抽样 m 个特征有放回地从总共 N 个样本中抽样 n 个样本无放回地从总共 N 个样本中抽样 n 个样本C
105解决隐马模型中预测问题的算法是?简单前向算法后向算法Baum-Welch 算法维特比算法D
106训练完 SVM 模型后, 不是支持向量的那些样本我们可以丢掉, 也可以继续分类简单正确错误A
107. 以下哪些算法, 可以用神经网络去构造: ( ) 1.KNN 2.线性回归 3.对数几率回归简单1 和 22 和 31, 2 和 3以上都不是B
108请选择下面可以应用隐马尔科夫(HMM)模型的选项简单基因序列数据集电影浏览数据集股票市场数据集所有以上D
109对于 PCA(主成分分析)转化过的特征 , 朴素贝叶斯的”不依赖假设”总是成立, 因为所有主要成分是正交的, 这个说法是简单正确的错误的B
110数据科学家可能会同时使用多个算法(模型)进行预测, 并且最后把这些算法的结果集成起来进行最后的预测(集成学习),以下对集成学习说法正确的是简单单个模型之间有高相关性单个模型之间有低相关性在集成学习中使用“平均权重”而不是“投票”会比较好单个模型都是用的一个算法B
111以下哪个图是 KNN 算法的训练边界 ?简单BADCB
112对于线性回归,我们应该有以下哪些假设?() 1.找到利群点很重要, 因为线性回归对利群点很敏感 2.线性回归要求所有变量必须符合正态分布 3.线性回归假设数据没有多重线性相关性简单1 和 22 和 31,2 和 3以上都不是D
113我们注意变量间的相关性。在相关矩阵中搜索相关系数时, 如果我们发现 3 对变量的相关系数是(Var1 和 Var2, Var2 和 Var3, Var3 和 Var1)是-0.98, 0.45, 1.23 . 我们可以得出什么结论?( ) 1.Var1 和 Var2 是非常相关的 2.因为 Var 和 Var2 是非常相关的, 我们可以去除其中一个 3.Var3 和 Var1 的 1.23 相关系数是不可能的简单1 and 31 and 21,2 and 31C
114如果在一个高度非线性并且复杂的一些变量中“一个树模型可比一般的回归模型效果更好”是简单对的错的A
115下面对集成学习模型中的弱学习者描述错误的是?简单他们经常不会过拟合他们通常带有高偏差,所以其并不能解决复杂学习问题他们通常会过拟合C
116最出名的降维算法是 PAC 和 t-SNE。将这两个算法分别应用到数据「X」上,并得到数据集「X_projected_PCA」,「X_projected_tSNE」。下面哪一项对「X_projected_PCA」和「X_projected_tSNE」的描述是正确的?简单X_projected_PCA 在最近邻空间能得到解释X_projected_tSNE 在最近邻空间能得到解释两个都在最近邻空间能得到解释两个都不能在最近邻空间得到解释B
117在 k-均值算法中,以下哪个选项可用于获得全局最小?简单尝试为不同的质心(centroid)初始化运行算法调整迭代的次数找到集群的最佳数量以上所有D
118你正在使用带有 L1 正则化的 logistic 回归做二分类,其中 C 是正则化参数,w1 和 w2 是 x1 和 x2 的系数。当你把 C 值从 0 增加至非常大的值时,下面哪个选项是正确的?简单第一个 w2 成了 0,接着 w1 也成了 0第一个 w1 成了 0,接着 w2 也成了 0w1 和 w2 同时成了 0即使在 C 成为大值之后,w1 和 w2 都不能成 0B
119即使在 C 成为大值之后,w1 和 w2 都不能成 0简单PCAK-Means以上都不是A
120下面哪个/些超参数的增加可能会造成随机森林数据过拟合?简单树的数量树的深度学习速率B
121下列哪个不属于常用的文本分类的特征选择算法?简单卡方检验值互信息信息增益主成分分析D
122机器学习中做特征选择时,可能用到的方法有?简单卡方信息增益平均互信息期望交叉熵以上都有E
123一般,K-NN 最近邻方法在( )的情况下效果较好简单样本较多但典型性不好样本呈团状分布样本较少但典型性好样本呈链状分布A
124以下描述错误的是简单SVM 是这样一个分类器,它寻找具有最小边缘的超平面,因此它也经常被称为最小边缘分类器在聚类分析当中,簇内的相似性越大,簇间的差别越大,聚类的效果就越差在决策树中,随着树中结点输变得太大,即使模型的训练误差还在继续降低,但是检验误差开始增大,这是出现了模型拟合不足的原因聚类分析可以看作是一种非监督的分类C
125关于正态分布,下列说法错误的是简单正态分布具有集中性和对称性正态分布的均值和方差能够决定正态分布的位置和形态正态分布的偏度为 0,峰度为 1标准正态分布的均值为 0,方差为 1C
126在以下不同的场景中,使用的分析方法不正确的有简单根据商家最近一年的经营及服务数据,用聚类算法判断出天猫商家在各自主营类目下所属的商家层级根据商家近几年的成交数据,用聚类算法拟合出用户未来一个月可能的消费金额公式用关联规则算法分析出购买了汽车坐垫的买家,是否适合推荐汽车脚垫根据用户最近购买的商品信息,用决策树算法识别出淘宝买家可能是男还是女B
127下列表述中,在 k-fold 交叉验证中关于选择 K 说法正确的是简单较大的 K 并不总是好的,选择较大的 K 可能需要较长的时间来评估你的结果相对于期望误差来说,选择较大的 K 会导致低偏差(因为训练 folds 会变得与整个数据集相似)在交叉验证中通过最小化方差法来选择 K 值以上都正确D
128在决策树中,用作分裂节点的 information gain 说法不正确的是简单较小不纯度的节点需要更多的信息来区分总体信息增益可以使用熵得到信息增益更加倾向于选择有较多取值的属性A
129以下哪一种方法最适合在 n(n>1)维空间中做异常点检测简单正态分布图盒图马氏距离散点图C
130logistic 回归与多元回归分析有哪些不同?简单logistic 回归预测某事件发生的概率logistic 回归有较高的拟合效果logistic 回归回归系数的评估以上全选D
131bootstrap 数据的含义是简单有放回的从整体 M 中抽样 m 个特征无放回的从整体 M 中抽样 m 个特征有放回的从整体 N 中抽样 n 个样本无放回的从整体 N 中抽样 n 个样本C
132决策树可以用来执行聚类吗?简单不能A
133下面那个决策边界是神经网络生成的?中等ADCBEE
134关于 Logit 回归和 SVM 不正确的是中等Logit 回归本质上是一种根据样本对权值进行极大似然估计的方法,而后验概率正比于先验概率和似然函数的乘积。logit 仅仅是最大化似然函数,并没有最大化后验概率,更谈不上最小化后验概率Logit 回归的输出就是样本属于正类别的几率,可以计算出概率SVM 的目标是找到使得训练数据尽可能分开且分类间隔最大的超平面,应该属于结构风险最小化SVM 可以通过正则化系数控制模型的复杂度,避免过拟合A
135Fisher 线性判别函数的求解过程是将 M 维特征矢量投影在( )中进行求解。 A、M-1 维空间中等M-1 维空间一维空间三维空间二维空间B
136在其它条件不变的前提下,以下哪种做法容易引起机器学习中的过拟合问题中等增加训练集数量减少神经网络隐藏层节点数删除稀疏的特征SVM 算法中使用高斯核/RBF 核代替D
137如果线性回归模型中的随机误差存在异方差性,那么参数的 OLS 估计量是中等无偏的,有效的无偏的,非有效的有偏的,有效的有偏的,非有效的B
138下列哪个不属于 CRF 模型对于 HMM 和 MEMM 模型的优势中等特征灵活速度快可容纳较多上下文信息全局最优B
139已知一组数据的协方差矩阵 P,下面关于主分量说法错误的是中等主分量分析的最佳准则是对一组数据进行按一组正交基分解, 在只取相同数量分量的条件下,以均方误差计算截尾误差最小在经主分量分解后,协方差矩阵成为对角矩阵主分量分析就是 K-L 变换主分量是通过求协方差矩阵的特征值得到C
140以下哪些方法不可以直接来对文本分类?中等Kmeans决策树支持向量机KNNA
141以下( )不属于线性分类器最佳准则?中等感知准则函数贝叶斯分类支持向量机Fisher 准则B
142在统计模式分类问题中,当先验概率未知时,可以使用中等最小损失准则最小最大损失准则最小误判概率准则B
143有两个样本点,第一个点为正样本,它的特征向量是(0,-1);第二个点为负样本,它的特征向量是(2,3),从这两个样本点组成的训练集构建一个线性 SVM 分类器的分类面方程是中等2x+y=4x+2y=5x+2y=32x-y=0C
144在 Logistic Regression 中,如果同时加入 L1 和 L2 范数,不会产生什么效果中等以做特征选择,并在一定程度上防止过拟合能解决维度灾难问题能加快计算速度可以获得更准确的结果D
145在其他条件不变的前提下,以下哪种做法容易引起机器学习中的过拟合问题?中等增加训练集量减少神经网络隐藏层节点数删除稀疏的特征SVM 算法中使用高斯核/RBF 核代替线性核D
146隐马尔可夫模型三个基本问题以及相应的算法说法错误的是中等评估—前向后向算法解码—维特比算法学习—Baum-Welch 算法学习—前向后向算法D
147影响聚类算法效果的主要原因有简单特征选取模式相似性测度分类准则已知类别的样本质量ABC
148在统计模式分类问题中,当先验概率未知时,可以使用简单最小损失准则最小最大损失准则最小误判概率准则N-P 判决BD
149下列哪些方法可以用来对高维数据进行降维简单LASSO主成分分析法聚类分析小波分析法线性判别法拉普拉斯特征映射ABCDEF
150处理类别型特征时,事先不知道分类变量在测试集中的分布。要将 one-hot encoding(独热码)应用到类别型特征中。那么在训练集中将独热码应用到分类变量可能要面临的困难是什么?简单分类变量所有的类别没有全部出现在测试集中类别的频率分布在训练集和测试集是不同的训练集和测试集通常会有一样的分布AB
151如果以特征向量的相关系数作为模式相似性测度,则影响聚类算法结果的主要因素有简单已知类别样本质量分类准则特征选取量纲BC
152影响基本 K-均值算法的主要因素有简单样本输入顺序模式相似性测度聚类准则初始类中心的选取ABD
153以下哪个属于线性分类器最佳准则?简单感知准则函数贝叶斯分类支持向量机Fisher 准则ACD
154以下说法中正确的是简单SVM 对噪声(如来自其他分布的噪声样本)鲁棒在 AdaBoost 算法中,所有被分错的样本的权重更新比例相同Boosting 和 Bagging 都是组合多个分类器投票的方法,二者都是根据单个分类器的正确率决定其权重给定 n 个数据点,如果其中一半用于训练,一般用于测试,则训练误差和测试误差之间的差别会随着 n 的增加而减少BD
155机器学习中 L1 正则化和 L2 正则化的区别是?简单使用 L1 可以得到稀疏的权值使用 L1 可以得到平滑的权值使用 L2 可以得到稀疏的权值使用 L2 可以得到平滑的权值AD
156位势函数法的积累势函数 K(x)的作用相当于 Bayes 判决中的简单后验概率先验概率类概率密度类概率密度与先验概率的乘积AD
157下列方法中,可以用于特征降维的方法包括简单主成分分析 PCA线性判别分析 LDA深度学习 SparseAutoEncoder矩阵奇异值分解 SVD最小二乘法 LeastSquaresABCD
158数据清理中,处理缺失值的方法是?简单估算整例删除变量删除成对删除ABCD
159下面哪些是基于核的机器学习算法?中等Expectation Maximization(EM)(最大期望算法)Radial Basis Function(RBF)(径向基核函数)Linear Discrimimate Analysis(LDA)(主成分分析法)Support Vector Machine(SVM)(支持向量机)BCD
160在统计模式识分类问题中,当先验概率未知时,可以使用中等最小损失准则N-P 判决最小最大损失准则最小误判概率准则BC
161在分类问题中,我们经常会遇到正负样本数据量不等的情况,比如正样本为 10w 条数据,负样本只有 1w 条数据,以下最合适的处理方法是中等将负样本重复 10 次,生成 10w 样本量,打乱顺序参与分类直接进行分类,可以最大限度利用数据从 10w 正样本中随机抽取 1w 参与分类将负样本每个权重设置为 10,正样本权重为 1,参与训练过程ACD
162关于线性回归的描述,以下正确的有:中等基本假设包括随机干扰项是均值为 0,方差为 1 的标准正态分布基本假设包括随机干扰下是均值为 0 的同方差正态分布在违背基本假设时,普通最小二乘法估计量不再是最佳线性无偏估计量在违背基本假设时,模型不再可以估计可以用 DW 检验残差是否存在序列相关性多重共线性会使得参数估计值方差减小ACEF
163基于二次准则函数的 H-K 算法较之于感知器算法的优点是中等计算量小可以判别问题是否线性可分其解完全适用于非线性可分的情况其解的适应性更好BD
164欧式距离具有( );马式距离具有()中等平移不变性旋转不变性尺度缩放不变性不受量纲影响的特性AB ABCD
165假定目标变量的类别非常不平衡,即主要类别占据了训练数据的 99%。现在你的模型在测试集上表现为 99% 的准确度。那么下面哪一项表述是正确的?中等准确度并不适合于衡量不平衡类别问题准确度适合于衡量不平衡类别问题精确率和召回率适合于衡量不平衡类别问题精确率和召回率不适合于衡量不平衡类别问题AC
166鉴别了多元共线特征。那么下一步可能的操作是什么?中等移除两个共线变量不移除两个变量,而是移除一个移除相关变量可能会导致信息损失,可以使用带罚项的回归模型(如 ridge 或 lasso regression)BC
167下面哪些对「类型 1(Type-1)」和「类型 2(Type-2)」错误的描述是正确的?中等类型 1 通常称之为假正类,类型 2 通常称之为假负类类型 2 通常称之为假正类,类型 1 通常称之为假负类类型 1 错误通常在其是正确的情况下拒绝假设而出现AC
168模式识别中,马式距离较之于欧式距离的优点是中等平移不变性旋转不变性尺度不变性考虑了模式的分布CD
169影响聚类算法结果的主要因素有中等已知类别的样本质量分类准则特征选取模式相似性测度BCD
170假定某同学使用 Naive Bayesian(NB)分类模型时,不小心将训练数据的两个维度搞重复了,那么关于 NB 的说法中正确的是困难这个被重复的特征在模型中的决定作用会被加强模型效果相比无重复特征的情况下精确度会降低如果所有特征都被重复一遍,得到的模型预测结果相对于不重复的情况下的模型预测结果一样当两列特征高度相关时,无法用两列特征相同时所得到的结论来分析问题NB 可以用来做最小二乘回归以上说法都不正确BD
171隐马尔可夫模型三个基本问题以及相应的算法说法正确的是困难评估—前向后向算法解码—维特比算法学习—Baum-Welch 算法学习—前向后向算法ABC

最后

以上就是高大刺猬为你收集整理的机器学习常见面试题总结的全部内容,希望文章能够帮你解决机器学习常见面试题总结所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(44)

评论列表共有 0 条评论

立即
投稿
返回
顶部