amusi/daily-question

20180929 -三道(国庆前)

Opened this issue · 1 comments

一、对于神经网络的说法, 下面正确的是 :

  1. 增加神经网络层数, 可能会增加测试数据集的分类错误率
  2. 减少神经网络层数, 总是能减小测试数据集的分类错误率
  3. 增加神经网络层数, 总是能减小训练数据集的分类错误率

A. 1
B. 1 和 3
C. 1 和 2
D. 2
答案:A

【解析】
深度神经网络的成功, 已经证明增加神经网络层数, 可以增加模型范化能力, 也就是,训练数据集和测试数据集都表现得更好。但这篇文献中(https://arxiv.org/pdf/1512.03385v1.pdf), 作者提到更多的层, 也不一定能保证有更好的表现. 所以不能绝对地说层数多的好坏, 只能选A

二、以下说法正确的是 :
A. 一个机器学习模型,如果有较高准确率,总是说明这个分类器是好的
B. 如果增加模型复杂度, 那么模型的测试错误率总是会降低
C. 如果增加模型复杂度, 那么模型的训练错误率总是会降低
D. 我们不可以使用聚类“类别id”作为一个新的特征项, 然后再用监督学习分别进行学习

A. 1
B. 2
C. 3
D. 1 and 3

【解析】答案 C

三、假如我们使用非线性可分的SVM目标函数作为最优化对象, 我们怎么保证模型线性可分 :

A. 设C=1
B. 设C=0
C. 设C=无穷大
D. 以上都不对

【解析】答案C无穷大保证了所有线性不可分都是可以忍受的。

amusi commented

多谢大佬,我会立即更新上去的