![](https://lstatic.shangxueba.com/jiandati/h5/images/m_q_title.png)
以下有关卷积神经网络的说法,哪些是错误的?
A.卷积核中的取值都是事先人工设计的,在网络的训练过程中不变化
B.共享权重大大减少了参数的个数,降低了网络的复杂度
C.通过增加卷积核的大小和通道的个数,可以提升卷积神经网络特征获取的能力
D.卷积核越大,即感受野越大,网络需要优化的参数越少,训练速度越快
A.卷积核中的取值都是事先人工设计的,在网络的训练过程中不变化
B.共享权重大大减少了参数的个数,降低了网络的复杂度
C.通过增加卷积核的大小和通道的个数,可以提升卷积神经网络特征获取的能力
D.卷积核越大,即感受野越大,网络需要优化的参数越少,训练速度越快
A、卷积神经网络的层与层之间都是全连接网络
B、卷积神经网络的层与层之间都是部分连接网络
C、卷积神经网络的层与层之间既有可能是全连接,也有可能是局部连接。通常是开始的若干层是局部连接,最后的层是全连接
D、卷积神经网络的层与层之间既有可能是全连接,也有可能是局部连接。通常是开始的若干层是全连接,最后的层是局部连接
A、卷积层的输入特征图的通道数和输出特征图的通道数是相同的
B、通道数越多,获得的特征图越多,网络获得的特征越充分
C、随着卷积网络深度的增加,一般使用更小的卷积核和更多的通道,兼顾训练速度和网络分类性能
D、在卷积操作时,每个卷积核要对输入特征图的所有通道分别做卷积后求和,得到对应的新特征图
A、卷积核的高和宽不一定是相等的,且一般大小取奇数
B、在特征图padding时,各方向的填充像素数不一定相同(不对称填充),也不一定补0
C、在卷积神经网络中,卷积和池化的作用主要是分类,全连接层的作用主要是特征获取
D、卷积神经网络的输出层不一定用全连接网络,也可能得到比较好的性能
A、权重归一化
B、dropout
C、batch nomalization
D、增加更多的隐层数,提高网络的深度,深度增大性能也会不断提升
为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!