下面关于神经网络参数的说法错误的是
A.在选择神经网络的层数时,隐藏层的层数应该是越少越好。
B.神经网络的模型受到神经元的传递函数、网络结构和连接权值的学习这三个因素的影响。
C.在多层前馈网络中,若隐层节点数量太少,会出现欠学习的问题。
D.在多层前馈网络中,若隐层节点数量太少,会出现过学习的问题。
A.在选择神经网络的层数时,隐藏层的层数应该是越少越好。
B.神经网络的模型受到神经元的传递函数、网络结构和连接权值的学习这三个因素的影响。
C.在多层前馈网络中,若隐层节点数量太少,会出现欠学习的问题。
D.在多层前馈网络中,若隐层节点数量太少,会出现过学习的问题。
A、对激活函数的输出结果进行范围限定,有助于梯度平稳下降,而ReLU输出范围无限的函数会导致梯度消失问题。
B、ReLU函数中所有负值均被截断为结果0,从而导致特征丢失,可适当调高学习率避免此类情况。
C、在神经网络训练中,动态调整学习率综合考虑当前点的梯度、最近几次训练误差的降低情况等效果更好。
D、随机梯度下降(SGD)每次更新只随机取一个样本,按照固定学习率计算梯度,所以速度较快。
B.前馈神经网络可用有向无环图表示
C.随着神经网络隐藏层数的增加,模型的分类能力逐步减弱
D.前馈神经网络同一层的神经元之间不存在联系
B.卷积核不可以用来提取图片全局特征
C.在处理图片时,是以扫描窗口的方式对图像做卷积
D.常见的池化层有最大池化与平均池化
A、利用神经网络对两类问题进行分类时,可以用一个输出节点来实现。
B、神经网络实现多类问题的分类时可以用多个神经网络组合来实现。
C、利用神经网络来实现多类问题的分类时,可以采用一个具有的多个输出节点的神经网络来实现。
D、在利用神经网络进行分类时,神经网络的输入节点的个数多于输入的特征数量。
A、如果参数较多,则容易导致过拟合。而减少参数有助于避免过拟合
B、参数共享的优势是通过一个任务上学习到的参数可以直接应用到另外一个任务上
C、可以允许一个特征检测器在整个输入图像的不同位置使用,即可以把参数看成是卷积提取特征的方式,该方式与位置无关
D、参数越多,才能避免过拟合,减少参数容易导致过拟合
为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!