题目内容 (请给出正确答案)
[单选题]

对于给定的下面的一段python程序。已知D是W与X的点乘,且W为参数矩阵,X为样本矩阵,则空格中应该填入的数值是 import numpy as np # 正向传播 W = np.random.randn(5, ) X = np.random.randn(10, 2) D = W.dot(X)

A.10

B.5

C.2

D.1

提问人:网友maomao54321 发布时间:2022-01-07
参考答案
查看官方参考答案
如搜索结果不匹配,请 联系老师 获取答案
网友答案
查看全部
  • · 有4位网友选择 A,占比50%
  • · 有3位网友选择 D,占比37.5%
  • · 有1位网友选择 C,占比12.5%
匿名网友 选择了A
[94.***.***.195] 1天前
匿名网友 选择了A
[115.***.***.33] 1天前
匿名网友 选择了C
[230.***.***.127] 1天前
匿名网友 选择了A
[94.***.***.195] 1天前
匿名网友 选择了D
[137.***.***.207] 1天前
匿名网友 选择了A
[117.***.***.43] 1天前
匿名网友 选择了A
[115.***.***.33] 1天前
匿名网友 选择了A
[84.***.***.140] 1天前
匿名网友 选择了D
[37.***.***.63] 1天前
匿名网友 选择了D
[248.***.***.107] 1天前
匿名网友 选择了C
[230.***.***.127] 1天前
匿名网友 选择了A
[117.***.***.43] 1天前
匿名网友 选择了D
[137.***.***.207] 1天前
匿名网友 选择了A
[117.***.***.43] 1天前
匿名网友 选择了A
[115.***.***.33] 1天前
匿名网友 选择了A
[84.***.***.140] 1天前
匿名网友 选择了D
[37.***.***.63] 1天前
匿名网友 选择了D
[248.***.***.107] 1天前
匿名网友 选择了C
[230.***.***.127] 1天前
匿名网友 选择了A
[94.***.***.195] 1天前
加载更多
提交我的答案
登录提交答案,可赢取奖励机会。
更多“对于给定的下面的一段python程序。已知D是W与X的点乘,…”相关的问题
第1题
证明下面文法是LR(1)而不是SLR(1)文法。 S→A A→BaBb|DbDa B→ε D→ε
点击查看答案
第2题
下面关于this关键字的描述中,错误的是()

A、如果类的成员变量与方法中的局部变量名相同,那么可以在方法中通过this关键字调用成员变量

B、只能在构造方法中使用this调用其他的构造方法

C、在构造方法中使用this调用构造方法的语句必须是该方法的第一条执行语句,且只能出现一次

D、可以在一个类的两个构造方法中使用this互相调用

点击查看答案
第3题
假设多层感知机中输入层中的节点数为10,隐藏层中的节点数目为5,则从输入层到隐藏层的连接数是

A、50

B、10

C、5

D、可以取任意值

点击查看答案
第4题
下列关于条件熵的描述正确的是

A、两个随机变量X,Y的联合分布的熵

B、条件熵H(X|Y)表示在已知随机变量Y的条件下随机变量X的不确定性

C、H(X|Y)= H(X, Y) - H(Y),即条件熵H(X|Y)是(X, Y)的联合熵,减去Y单独发生包含的熵

D、用于表征两个变量概率分布的差异性 。

点击查看答案
第5题
下列关于循环神经网络RNN (Recurrent Neural Networks)说法错误的是

A、隐藏层之间的节点有连接

B、隐藏层之间的节点没有连接

C、隐藏层的输入不仅包括输入层的输出,还包括上一时刻隐藏层的输出

D、网络会对之前时刻的信息进行记忆并应用于当前输出的计算中

点击查看答案
第6题
下面关于梯度下降法描述正确的是

A、梯度下降法作为机器学习中较常使用的优化算法,其有着三种不同的形式:批量梯度下降(Batch Gradient Descent)、随机梯度下降(Stochastic Gradient Descent)以及小批量梯度下降(Mini-Batch Gradient Descent)

B、批量梯度下降法是最原始的形式,它是指在每一次迭代时使用所有样本来进行梯度的更新

C、随机梯度下降法不同于批量梯度下降,是每次迭代使用一个样本来对参数进行更新

D、小批量梯度下降法是对批量梯度下降以及随机梯度下降的一个折中办法。更新参数时使用一部分训练样本。一般将训练样本集分成若干个batch,每个batch包含m个样本。每次更新都利用一个batch的数据,而非整个训练集

点击查看答案
第7题
下列关于长短期记忆网络LSTM和循环神经网络RNN的关系描述正确的是:

A、LSTM是简化版的RNN

B、LSTM是双向的 RNN

C、LSTM是多层的RNN

D、LSTM是RNN的扩展,其通过特殊的结构设计来避免长期依赖问题

点击查看答案
第8题
标准RNN (循环神经网络) 无法处理更长的上下文间隔,即长期依赖问题。为此Hochreiter & Schmidhuber (1997) 提出一种特殊的RNN类型,其通过特殊的结构设计来避免长期依赖问题。并被 Alex Graves进行了改良和推广。这种改进的模型是

A、长短期记忆网络LSTM

B、卷积神经网络CNN

C、多层感知机MLP

D、受限玻尔兹曼机

点击查看答案
第9题
LSTM 通过“门”结构来去除或者增加信息到细胞状态(长期状态)。为了让信息选择性通过,

A、一般需要一个 sigmoid 神经网络层和一个 pointwise 乘法操作

B、一般需要一个 sigmoid 神经网络层和一个 pointwise 加法操作

C、一般需要一个 tanh 神经网络层和一个 pointwise 乘法操作

D、一般需要一个 tanh 神经网络层和一个 pointwise 加法操作

点击查看答案
账号:
你好,尊敬的用户
复制账号
发送账号至手机
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改
欢迎分享答案

为鼓励登录用户提交答案,简答题每个月将会抽取一批参与作答的用户给予奖励,具体奖励活动请关注官方微信公众号:简答题

简答题官方微信公众号

警告:系统检测到您的账号存在安全风险

为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!

微信搜一搜
简答题
点击打开微信
警告:系统检测到您的账号存在安全风险
抱歉,您的账号因涉嫌违反简答题购买须知被冻结。您可在“简答题”微信公众号中的“官网服务”-“账号解封申请”申请解封,或联系客服
微信搜一搜
简答题
点击打开微信