以下有关深度学习的训练说法,错误的是哪些?
A.如果能保证训练数据的质量,那么往往比挑选或者设计模型的收益更大。
B.对于图像分类问题而言,如果类别数远远超过类别样本数,那么通常的方法可能效果不好,需要对数据进行增强。
C.在预训练的模型基础上,采用微调(fine-tune)的方法对少量的新样本训练往往比从头训练效果差,但训练的速度快。
D.在预训练的模型进行微调时,一般预先对顶层的参数进行调整,这是因为与底层比较,顶层获得的特征是更通用的特征。
A.如果能保证训练数据的质量,那么往往比挑选或者设计模型的收益更大。
B.对于图像分类问题而言,如果类别数远远超过类别样本数,那么通常的方法可能效果不好,需要对数据进行增强。
C.在预训练的模型基础上,采用微调(fine-tune)的方法对少量的新样本训练往往比从头训练效果差,但训练的速度快。
D.在预训练的模型进行微调时,一般预先对顶层的参数进行调整,这是因为与底层比较,顶层获得的特征是更通用的特征。
A. 焊接从业人员已经进入社会,没有必要花时间去学习专业知识
B. 专业知识的学习是学生时期的任务,工作之后已无必要学习
C. 焊接从业人员只需练好技能,不需学习专业知识
D. 焊接从业人员既要认真学习专业知识,又要重视岗位技能训练
A、学习的起因是对外部刺激的反应
B、教师的职责就是要创设好外部刺激,尽可能在最大程度上强化学生的合适的行为
C、学习者不是被动的接受器,而是主动地对外界信息进行选择性加工的主体
D、教师要充分考虑学习者的内部心理过程(包括:态度、需要、兴趣、爱好、原有的认知结构等)来设计教学,促进学生对学习内容的选择性加工
A、当新的数据量少且数据与原数据集类似,可以对输出层训练即可,不需要对模型参数做过多的调整。
B、使用预训练模型意味着难以自由改变网络结构和参数,限制了其应用场合。
C、当新数据量比较大,且数据与原数据类似,可对预训练模型的所有层以较大的学习率微调。
D、当新数据量少,且数据和原数据集差异较大,那么除了对输出层微调外,还要对顶层以下的层数进行大调。
A、对于YOLOv1等单阶段的目标检测算法,不需要做区域生成(region proposal),可以直接使用卷积网络预测物体的分类和位置。
B、对于R-CNN算法而言,对目标和背景进行分类仅需一个SVM模型。
C、Fast R-CNN可以把selective search提取的候选框通过ROI Pooling转化为固定大小的特征图。
D、在Faster R-CNN中,候选框是通过特征图的点使用RPN(区域生成网络)生成。
A、在RNN中每个时间步骤用到的参数都是一样的,但是每一时间步的输入和输出是不一样的
B、在BPTT中,第一个求和是接收来自输入层的数据,第二个是接收来自上一隐藏层的数据
C、在RNN的后向传播中,累积残差仅包括当前时间输出层传回的残差
D、RNN在处理中存在梯度消失问题,早期信号被忽略
A、LSTM中通过引入输入门、遗忘门、输出门解决了RNN中存在的梯度消失和梯度爆炸
B、LSTM中门的开关程度是由信息的权重决定的,即训练过程中记住重要信息
C、与RNN相比,LSTM中引入更多参数,所以其训练周期更久
D、LSTM中使用Sigmoid实现门限控制,而用TanH实现数据处理
A、ReLU非线性激活函数的收敛速度比Sigmoid快一些
B、在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力
C、激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数
D、输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)
为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!