信息论与编码信息论与编码试卷.doc
- 文海网络科技企业认证 |
- 2021-11-28 发布|
- 44.5 KB|
- 6页
试卷第 PAGE 1 页共 NUMPAGES 1 页
信息论与编码信息论与编码试卷
姓名:_____________ 年级:____________ 学号:______________
题型
选择题
填空题
解答题
判断题
计算题
附加题
总分
得分
评卷人
得分1、什么是平均自信息量与平均互信息,比较一下这两个概念的异同?2、简述最大离散熵定理。对于一个有m个符号的离散信源,其最大熵是多少?3、解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系?4、对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。5、写出香农公式,并说明其物理意义。当信道带宽为5000Hz,信噪比为30dB时求信道容量。6、解释无失真变长信源编码定理。7、在认识论层次上研究信息的时候,必须同时考虑到( )、( )和( )三个方面的因素。8、1948年,美国数学家( )发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。9、按照信息的性质,可以把信息分成( )、( )和( )。10、按照信息的地位,可以把信息分成( )和( )。11、人们研究信息论的目的是为了( )、( )、( )地交换和利用各种各样的信息。12、信息的( )是建立信息论的基础。13、( )是信息度量最常用的方法14、( )是香农信息论最基本最重要的概念15、事物的不确定度是用时间统计发生( )来描述的。16、单符号离散信源一般用随机变量描述,而多符号离散信源一般用( )描述。17、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为( )。18、自信息量的单位一般有( )。19、必然事件的自信息是( )。20、不可能事件的自信息量是( )。21、两个相互独立的随机变量的联合自信息量等于( )。22