信息论与编码信息论与编码试卷.doc

想预览更多内容,点击预览全文

申明敬告:

本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己完全接受本站规则且自行承担所有风险,本站不退款、不进行额外附加服务;如果您已付费下载过本站文档,您可以点击这里二次下载

文档介绍

试卷第 PAGE 1 页共 NUMPAGES 1 页

信息论与编码信息论与编码试卷

姓名:_____________ 年级:____________ 学号:______________

题型

选择题

填空题

解答题

判断题

计算题

附加题

总分

得分

评卷人

得分 1、什么是平均自信息量与平均互信息,比较一下这两个概念的异同? 2、简述最大离散熵定理。对于一个有m个符号的离散信源,其最大熵是多少? 3、解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系? 4、对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。 5、写出香农公式,并说明其物理意义。当信道带宽为5000Hz,信噪比为30dB时求信道容量。 6、解释无失真变长信源编码定理。 7、在认识论层次上研究信息的时候,必须同时考虑到( )、( )和( )三个方面的因素。 8、1948年,美国数学家( )发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 9、按照信息的性质,可以把信息分成( )、( )和( )。 10、按照信息的地位,可以把信息分成( )和( )。 11、人们研究信息论的目的是为了( )、( )、( )地交换和利用各种各样的信息。 12、信息的( )是建立信息论的基础。 13、( )是信息度量最常用的方法 14、( )是香农信息论最基本最重要的概念 15、事物的不确定度是用时间统计发生( )来描述的。 16、单符号离散信源一般用随机变量描述,而多符号离散信源一般用( )描述。 17、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为( )。 18、自信息量的单位一般有( )。 19、必然事件的自信息是( )。 20、不可能事件的自信息量是( )。 21、两个相互独立的随机变量的联合自信息量等于( )。 22

最近下载