AlexNet使用ReLU激活函数的好处不包括以下哪个方面?
A.缓解了梯度消失问题
B.提高l网络训练速度
C.梯度为0时神经元难以正常工作
D.开销小、计算快
A.缓解了梯度消失问题
B.提高l网络训练速度
C.梯度为0时神经元难以正常工作
D.开销小、计算快
B、Relu函数
C、Softleen函数
D、Sigmoid函数
A、多个3X3小卷积的级联效果与5X5和7X7的大卷积核功能相仿
B、使用了dropout减少过拟合
C、使用不同数量的卷积核拼成模块,同一模块特征图的尺寸不变。
D、卷积层与池化层是一一配对的
A、卷积层使用卷积+ReLU+batch normalization的结构
B、mini-batch的batch值越大越好
C、增加池化层的个数可以提高网络训练参数,但降低了网络性能
D、激活函数尽量选择Sigmoid等函数,提高网络的非线性拟合能力
A、为适应不同大学的图形特征的获取,采用了多种大小的卷积核
B、网络的宽度和深度都得到了加强,特征获得更充分
C、通过线性堆叠各种Inception模块,在不明显增加网络课训练参数的情况下,提升网络的性能
D、GoogLeNetL的两个辅助分类器的主要目的是增加分类子模型,提高分类准确度
为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!