题目内容 (请给出正确答案)
[主观题]

对于给定的下面的一段python程序及其输出,下面的说法正确的是 import numpy as np a=np.asarray(

对于给定的下面的一段python程序及其输出,下面的说法正确的是 import numpy as np a=np.asarray([0.5,0.5]) #假设a为实际分布 b=np.array([0.25,0.75]) c=np.array([0.125,0.875]) kl1=np.sum(a*np.log(a/b)) print ("b,a",kl1) kl2=np.sum(a*np.log(a/c)) print ("c,a",kl2) 其输出结果为 b,a 0.143841036226 c,a 0.413339286592

A、程序的输出是计算了条件熵

B、程序的输出是计算了互信息

C、b和c相比,更接近实际分布a

D、c和b相比,更接近实际分布a

提问人:网友houlai8863 发布时间:2022-01-06
参考答案
查看官方参考答案
如搜索结果不匹配,请 联系老师 获取答案
更多“对于给定的下面的一段python程序及其输出,下面的说法正确…”相关的问题
第1题
分析下面的 JavaScxipt代码段,输出的结果是()。enp-new Array(5) :enp[1]=1 .enp[2]=2document

分析下面的 JavaScxipt代码段,输出的结果是()。

enp-new Array(5) :

enp[1]=1 .

enp[2]=2

document. write (enp. length) ;

A.2

B.3

C.4

D.5

点击查看答案
第2题
下面各题中理解判断错误的一项是()
A.“外连衡而斗诸侯”,译为“对外取用连横的策略使诸侯自相争斗。”其中“外”与“斗”都是名词活用做状语。

B.“身死人手,为天下笑者”,句中的“为”表被动,然后以六合为家”句中的“为”是“变为”、“当作”的意思。

C.写陈涉起义一段中,作者从其领袖的社会地位、武器、军队素质、用兵之道四个方面作对比。

D.为了使文章主旨鲜明显豁,具有无可辩驳的说服力,作者文中有三个方面的对比:一是秦国与山东九国对比,二是秦国与统一天下的秦朝对比,三是陈涉与九国的对比。其实力的大小可以用“陈涉<九国<秦国<秦朝”来表示,可结果就是最弱小的陈涉打败了最强大的秦朝。

点击查看答案
第3题
为了在sklearn中使用感知机模型进行20新闻组的文本分类,则下面的导入模块语句中不是必要的是

A、from sklearn.datasets import fetch_20newsgroups

B、from sklearn.naive_bayes import GaussianNB

C、from sklearn.feature_extraction.text import TfidfVectorizer

D、from sklearn.linear_model import Perceptron

点击查看答案
第4题
对于给定的下面的一段python程序。已知D是W与X的点乘,且W为参数矩阵,X为样本矩阵,则空格中应该填入的数值是 import numpy as np # 正向传播 W = np.random.randn(5, ) X = np.random.randn(10, 2) D = W.dot(X)

A、10

B、5

C、2

D、1

点击查看答案
第5题
假设多层感知机中输入层中的节点数为10,隐藏层中的节点数目为5,则从输入层到隐藏层的连接数是

A、50

B、10

C、5

D、可以取任意值

点击查看答案
第6题
下列关于条件熵的描述正确的是

A、两个随机变量X,Y的联合分布的熵

B、条件熵H(X|Y)表示在已知随机变量Y的条件下随机变量X的不确定性

C、H(X|Y)= H(X, Y) - H(Y),即条件熵H(X|Y)是(X, Y)的联合熵,减去Y单独发生包含的熵

D、用于表征两个变量概率分布的差异性 。

点击查看答案
第7题
下列关于循环神经网络RNN (Recurrent Neural Networks)说法错误的是

A、隐藏层之间的节点有连接

B、隐藏层之间的节点没有连接

C、隐藏层的输入不仅包括输入层的输出,还包括上一时刻隐藏层的输出

D、网络会对之前时刻的信息进行记忆并应用于当前输出的计算中

点击查看答案
第8题
下面关于梯度下降法描述正确的是

A、梯度下降法作为机器学习中较常使用的优化算法,其有着三种不同的形式:批量梯度下降(Batch Gradient Descent)、随机梯度下降(Stochastic Gradient Descent)以及小批量梯度下降(Mini-Batch Gradient Descent)

B、批量梯度下降法是最原始的形式,它是指在每一次迭代时使用所有样本来进行梯度的更新

C、随机梯度下降法不同于批量梯度下降,是每次迭代使用一个样本来对参数进行更新

D、小批量梯度下降法是对批量梯度下降以及随机梯度下降的一个折中办法。更新参数时使用一部分训练样本。一般将训练样本集分成若干个batch,每个batch包含m个样本。每次更新都利用一个batch的数据,而非整个训练集

点击查看答案
第9题
下列关于长短期记忆网络LSTM和循环神经网络RNN的关系描述正确的是:

A、LSTM是简化版的RNN

B、LSTM是双向的 RNN

C、LSTM是多层的RNN

D、LSTM是RNN的扩展,其通过特殊的结构设计来避免长期依赖问题

点击查看答案
第10题
标准RNN (循环神经网络) 无法处理更长的上下文间隔,即长期依赖问题。为此Hochreiter & Schmidhuber (1997) 提出一种特殊的RNN类型,其通过特殊的结构设计来避免长期依赖问题。并被 Alex Graves进行了改良和推广。这种改进的模型是

A、长短期记忆网络LSTM

B、卷积神经网络CNN

C、多层感知机MLP

D、受限玻尔兹曼机

点击查看答案
账号:
你好,尊敬的用户
复制账号
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改
欢迎分享答案

为鼓励登录用户提交答案,简答题每个月将会抽取一批参与作答的用户给予奖励,具体奖励活动请关注官方微信公众号:简答题

简答题官方微信公众号

警告:系统检测到您的账号存在安全风险

为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!

微信搜一搜
简答题
点击打开微信
警告:系统检测到您的账号存在安全风险
抱歉,您的账号因涉嫌违反简答题购买须知被冻结。您可在“简答题”微信公众号中的“官网服务”-“账号解封申请”申请解封,或联系客服
微信搜一搜
简答题
点击打开微信