![](https://lstatic.shangxueba.com/jiandati/h5/images/m_q_title.png)
下面哪种操作不可以改善卷积网络训练的稳定性?
A、批归一化(batch normalization)
B、动态的学习步长调整,例如Adam
C、冲量项
D、提高mini-batch中的样本个数
A、批归一化(batch normalization)
B、动态的学习步长调整,例如Adam
C、冲量项
D、提高mini-batch中的样本个数
A.在微博等社交媒体上发布兼职信息并要求缴纳一定担保金、中介费
B.突然收到中奖信息并需要你缴纳手续费或邮递费才能拿到
C.在不知名小网站上以做活动的名义售卖远低于正常价格的手机、电脑等昂贵物品
D.在手机上下载APP注册后,商家打电话询问APP使用情况
A、大的卷积核对应的感受野比较大,更容易获得图像的特征
B、小的卷积核级联的效果等价于大卷积核的效果,但权重等参数会大大减少
C、过大的卷积核对应大量的参数,卷积神经网络不容易出现过拟合
D、小的卷积核可以获得图像比较细致的特征,它们组合起来可能降低网络的分类准确率
A、减少不同输入特征数据量纲的差别
B、使得第一个隐层的输入不至于过大或过小,提高网络训练的收敛速度
C、降低网络的计算量
D、减少网络的过拟合
A、卷积核中的取值都是事先人工设计的,在网络的训练过程中不变化
B、共享权重大大减少了参数的个数,降低了网络的复杂度
C、通过增加卷积核的大小和通道的个数,可以提升卷积神经网络特征获取的能力
D、卷积核越大,即感受野越大,网络需要优化的参数越少,训练速度越快
A、卷积层的输入特征图的通道数和输出特征图的通道数是相同的
B、通道数越多,获得的特征图越多,网络获得的特征越充分
C、随着卷积网络深度的增加,一般使用更小的卷积核和更多的通道,兼顾训练速度和网络分类性能
D、在卷积操作时,每个卷积核要对输入特征图的所有通道分别做卷积后求和,得到对应的新特征图
A、卷积核的高和宽不一定是相等的,且一般大小取奇数
B、在特征图padding时,各方向的填充像素数不一定相同(不对称填充),也不一定补0
C、在卷积神经网络中,卷积和池化的作用主要是分类,全连接层的作用主要是特征获取
D、卷积神经网络的输出层不一定用全连接网络,也可能得到比较好的性能
A、权重归一化
B、dropout
C、batch nomalization
D、增加更多的隐层数,提高网络的深度,深度增大性能也会不断提升
为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!