下面关于循环神经网络RNN的描述中,正确的说法是哪些?
A.在RNN中每个时间步骤用到的参数都是一样的,但是每一时间步的输入和输出是不一样的
B.在BPTT中,第一个求和是接收来自输入层的数据,第二个是接收来自上一隐藏层的数据
C.在RNN的后向传播中,累积残差仅包括当前时间输出层传回的残差
D.RNN在处理中存在梯度消失问题,早期信号被忽略
A.在RNN中每个时间步骤用到的参数都是一样的,但是每一时间步的输入和输出是不一样的
B.在BPTT中,第一个求和是接收来自输入层的数据,第二个是接收来自上一隐藏层的数据
C.在RNN的后向传播中,累积残差仅包括当前时间输出层传回的残差
D.RNN在处理中存在梯度消失问题,早期信号被忽略
A、RNN是具有整体浅层结构,局部深层结构的网络
B、RNN整个网络的输入端仅接受1帧数据
C、添加了“时间”的概念,若干帧数据依次送入网络处理
D、添加“时间”之间的状态反馈
A、在FNN中,输入信号的传递方向是明确的,并不存在反向信号传递
B、一个标准的前馈神经网络只有一个输入层和一个输出层
C、FNN的同层神经元之间存在连接
D、FNN的输出结果只能是向量
A、如果参数较多,则容易导致过拟合。而减少参数有助于避免过拟合
B、参数共享的优势是通过一个任务上学习到的参数可以直接应用到另外一个任务上
C、可以允许一个特征检测器在整个输入图像的不同位置使用,即可以把参数看成是卷积提取特征的方式,该方式与位置无关
D、参数越多,才能避免过拟合,减少参数容易导致过拟合
A、LSTM中通过引入输入门、遗忘门、输出门解决了RNN中存在的梯度消失和梯度爆炸
B、LSTM中门的开关程度是由信息的权重决定的,即训练过程中记住重要信息
C、与RNN相比,LSTM中引入更多参数,所以其训练周期更久
D、LSTM中使用Sigmoid实现门限控制,而用TanH实现数据处理
A、ReLU非线性激活函数的收敛速度比Sigmoid快一些
B、在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力
C、激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数
D、输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)
为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!