题目内容 (请给出正确答案)
[主观题]

香农的信源编码定理告诉我们,一个随机变量X的最佳码的平均码长满足L<H(X)+1,这只是一个最佳的上界,而事实上

香农的信源编码定理告诉我们,一个随机变量X的最佳码的平均码长满足L<H(X)+1,这只是一个最佳的上界,而事实上在很多情况下编码的效率要差得多。例如X是一个二进制的随机变量,pX(1)=ε,则当ε→0时H(X)=H(ε)→0,而此时L=1。请找出一个随机变量,其熵为2,同时其相应最佳码的平均码长为3。

提问人:网友anonymity 发布时间:2022-01-06
参考答案
查看官方参考答案
如搜索结果不匹配,请 联系老师 获取答案
更多“香农的信源编码定理告诉我们,一个随机变量X的最佳码的平均码长…”相关的问题
第1题
信源编码定理告诉我们,如果对一个熵为H(X)的信源,进行m进制的无失真变长编码 则。那么其平均码长满足

A.一定小于H(X)/logm

B.一定小于H(X)/logm+1

C.一定大于H(X)/logm

D.一定大于H(X)/logm+1

点击查看答案
第2题
差错控制是以香农的 为依据,通过信道编码技术来实现的。

A.香农定理

B.信源编码理论

C.奈氏准则

D.信道编码理论

点击查看答案
第3题
下面关于信源编码,说法正确的是()

A.游程编码和算术编码都属于无失真信源编码。

B.变换编码和预测编码属于限失真信源编码。

C.无失离散真信源编码的效率随着序列长度的增加而降低。

D.限失真信源编码定理告诉我们,当信源压缩的信息率R>R(D)时,总会找到一种信源压缩编码的方法,使得其平均失真小于D。

点击查看答案
第4题
下列关于信息论发展历史描述不正确的是()

A.1952年,香农发展并证明了信道容量的迭代算法。

B.1959年,香农首先提出了率失真函数和率失真信源编码定理,才发展成为信息率失真编码理论。

C.哈特莱用消息的可能数目的对数来度量消息中所含有的信息量,为香农创立信息论提供了思路。

D.偶然性、熵函数引进物理学为信息论的产生提供了理论前提。

点击查看答案
第5题
下列关于信息论发展历史描述不正确的是______。

A.偶然性、熵函数引进物理学为信息论的产生提供了理论前提。

B.1952年,香农发展并证明了信道容量的迭代算法。

C.哈特莱用消息可能数目的对数来度量消息中所含有的信息量,为香农创立信息论提供了思路。

D.1959年,香农首先提出率失真函数和率失真信源编码定理,才发展成为信息率失真编码理论。

点击查看答案
第6题
香农定理告诉我们,采样频率越高,采样数据描绘的曲线越接近实际曲线。所以,为了提高控制精度,应尽可能()
点击查看答案
第7题
香农定理告诉了我们,只要给定了信道信噪比和带宽,则信道的最大信息传输速率就确定了。()
点击查看答案
第8题
最大离散熵定理告诉我们,在不确定度最大的时候就是信源符号概率分布等概率的时候。
点击查看答案
第9题
香农定理给出了一个有限带宽,有随机热噪声信道的最大数据传输率的极限值,对带宽只有3000Hz的通信信道,信噪比S/N=1000时,无论何种编码最大速率不超过

A.30kbps

B.6000bps

C.3000bps

D.15kbps

点击查看答案
第10题
信息论的奠基人香农指出:在一定条件下,用离散的序列可以完全代表一个连续函数,这是采样定理的基本内容。将一段模拟信号转换成数字信号,一般要依次经过的三个步骤是()

A.量化、编码、采样

B.编码、量化、采样

C.采样、量化、编码

D.采样、编码、量化

点击查看答案
账号:
你好,尊敬的用户
复制账号
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改
欢迎分享答案

为鼓励登录用户提交答案,简答题每个月将会抽取一批参与作答的用户给予奖励,具体奖励活动请关注官方微信公众号:简答题

简答题官方微信公众号

警告:系统检测到您的账号存在安全风险

为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!

微信搜一搜
简答题
点击打开微信
警告:系统检测到您的账号存在安全风险
抱歉,您的账号因涉嫌违反简答题购买须知被冻结。您可在“简答题”微信公众号中的“官网服务”-“账号解封申请”申请解封,或联系客服
微信搜一搜
简答题
点击打开微信