所有试题来自公众号【读芯术】课后测试
-
深度学习中的“深度”是指
A. 计算机理解深度
B. 中间神经元网络的层次很多
C. 计算机的求解更加精确
D. 计算机对问题的处理更加灵活
B -
下列哪一项在神经网络中引入了非线性
A. 随机梯度下降
B. 修正线性单元(ReLU)
C. 卷积函数
D. 以上都不对
B -
下列哪个神经网络结构会发生权重共享
A. 卷积神经网络
B. 循环神经网络
C. 全连接神经网络
D. 选项A和B
D -
关于句子向量表示,下列说法正确的是
A. 只能通过有监督学习获得
B. 只能通过无监督学习获得
C. 有监督和无监督学习都可以获得
D. 以上都不对
C -
在神经网络中,下列哪种技术用于解决过拟合
A. Dropout
B. 正则化
C. early stop
D. Batch Normalizaiton
ABCD -
以下哪种不是自适应学习率方法
A. Mini-batch SGD
B. Adagrad
C. RMSprop
A -
哪种策略可以加速词向量训练
A. para2vect
B. 层级softmax
C. 最大似然估计
D. 以上都不对
B -
关于梯度下降算法,以下说法正确的是
A. 随机梯度下降算法是每次考虑单个样本进行权重更新
B. Mini-Batch梯度下降算法是批量梯度下降和随机梯度下降的折中
C. 批量梯度下降算法是每次考虑整个训练集进行权重更新
D. 以上都对
D -
与传统机器学习方法相比,深度学习的优势在于
A. 深度学习可以自动学习特征
B. 深度学习完全不需要做数据预处理
C. 深度学习完全不提取底层特征,如图像边缘、纹理等
D. 深度学习不需要调参
A -
下列哪一项在神经网络中引入了非线性
A. 随机梯度下降
B. Sigmoid激活函数
C. 增大权重和偏置的初始化值
D. 以上都不对
B -
在其他条件不变的前提下,以下哪些做法容易引起机器学习中的过拟合问题
A. 增加训练集量
B. 减少神经网络隐藏节点数
C. 在损失函数中增加正则项
D. SVM算法中使用高斯核/RBF核代替核性核
D -
下列模型,属于判别式模型的有
A. 隐马尔可夫模型
B. 支持向量机
C. 朴素贝叶斯
D. 神经网络
BD -
关于集成学习,下列说法错误的是
A. 集成学习一定能提升个体学习器的性能
B. Bagging方法中,个体学习器之间彼此独立
C. Boosting是一种重视错误样本的学习方法
D. Boosting方法中,个体学习器存在强依赖
A -
如果使用的学习率太大,会导致
A. 网络收敛的快
B. 网络收敛的快
C. 网络无法收敛
D. 不确定
C -
在一个神经网络里,知道每一个神经元的权值和偏差值是最重要的一步。如果以某种方法知道了神经元准确的权重和偏差,就可以近似任何函数。实现这个最佳的办法是
A. 随机赋值,祈祷他们是正确的
B. 搜索所有权重和偏差的组合,直到得到最佳值
C. 赋予一个初始值,通过检查跟最佳值的差值,然后迭代更新权重
D. 以上说法都不正确
C -
下列目标检测网络中,哪个是一阶段的网络
A. Faster-rcnn
B. RFCN
C. YOLOV3
D. SPP-net
C -
SSD主要通过哪种方法来解决检测不同大小目标的问题
A. 设置更多的anchor尺寸
B. 设置更多的anchor纵横化
C. 在不同的特征图上进行预测
D. 使用图像金字塔作为输入
C -
当图像分类的准确率不高时,可以考虑以下哪种方法提高准确率
A. 数据增强
B. 调整超参数
C. 使用预训练网络参数
D. 减少数据集
ABC -
文字监测网络TextBoxes基于下列哪个网络
A. Fast-rcnn
B. Faster r-cnn
C. SSD
D. Y0L0
C -
下面哪些情况可能导致神经网络训练失败
A. 梯度消失
B. 梯度爆炸
C. 激活单元死亡
D. 鞍点
ABCD -
假定你现在在解决一个有着非常不平衡的分类问题,即主要类别占据了训练数据的99%。现在你的模型在测试集上表现为99%的准确率。下面表述正确的是
A. 准确度并不适合于衡量不平衡类别问题
B. 准确度适合于衡量不平衡类别问题
C. 精确率和召回率适合于衡量不平衡类别问题
D. 精确率和召回率不适合于衡量不平衡类别问题
AC -
假定在神经网络中的隐藏层中使用激活函数X。在特定神经元给定任意输入,会得到输出[-0.0001]。X可能是以下哪一个激活函数
A. ReLU
B. tanh
C. Sigmoid
D. 以上都不是
B
解析:该激活函数可能是 tanh,因为该函数的取值范围是 (-1,1)。 -
如果增加神经网络的宽度,精确度会增加到一个阈值,然后开始降低。造成这一现象的原因可能是
A. 只有一部分核被用于预测
B. 当核数量增加,神经网络的预测能力降低
C. 当核数量增加,其相关性增加,导致过拟合
D. 以上都不对
C -
假设只有少量数据来解决某个具体问题,但有有个预先训练好的神经网络来解决类似问题。可以用下面哪些方法来利用这个预先训练好的网络
A. 把除了最后一层外所有的层都冻结,重新训练最一层
B. 重新训练整个模型
C. 只对最后几层进行微调
D. 对每一层模型进行评估,只使用少数层
C
解析:如果有个预先训练好的神经网络, 就相当于网络各参数有个很靠谱的先验代替随机初始化. 若新的少量数据来自于先前训练数据(或者先前训练数据量很好地描述了数据分布, 而新数据采样自完全相同的分布), 则冻结前面所有层而重新训练最后一层即可;但一般情况下, 新数据分布跟先前训练集分布有所偏差, 所以先验网络不足以完全拟合新数据时, 可以冻结大部分前层网络, 只对最后几层进行训练调参(这也称之为fine tune)。 -
下列哪个不属于CRF模型对于HMM模型的优势
A. 特征灵活
B. 速度快
C. 可以容纳较多的上下文信息
D. 能够做到全局最优
B -
下列方法中,可以用于特征降维的方法包括
A. 主成分分析
B. 线性判别分析
C. 自编码器
D. 矩阵奇异值分解
ABCD -
以下说法中正确的是
A. SVM对噪声鲁棒
B. 在AdaBoost算法中,所有被分错的样本的权重更新比列相同
C. Boosting和Bagging都是组合多个分类器投票的方法,二者都是根据单个分类器的正确率决定其权重
D. 分类器集成一定能提升单分类器的性能
B -
关于集成学习,以下说法错误的是
A. 集成学习一定能提升个体学习器的性能
B. Bagging方法中,个体学习器之间彼此独立
C. Boosting是一种重视错误样本的学习方法
D. Boosting方法中,个体学习器存在强依赖
A -
比较基于深度学习的在线更新跟踪算法与在线不更新的跟踪算法,下列说法错误的是
A. 一般来说,在线不更新的跟踪算法速度更快
B. 一般来说,在线更新的跟踪算法,可以适应目标的变化,和背景信息的变化,对特征的要求较低
C. 一般来说,在线更新的跟踪算法,在发生丢失和遮挡时,很容易找回
D. 一般来说,在线不更新的跟踪算法,对特征的要求比较高,要求特征的表示能力鲁棒性更强
C
更多推荐