信息论基础试卷及详细答案
- 格式:pdf
- 大小:612.41 KB
- 文档页数:8
各章参考答案2.1. (1)4.17比特 ;(2)5.17比特 ; (3)1.17比特 ;(4)3.17比特2.2. 1.42比特2.3. (1)225.6比特 ;(2)13.2比特2.4. (1)24.07比特; (2)31.02比特2.5. (1)根据熵的可加性,一个复合事件的平均不确定性可以通过多次实验逐步解除。
如果我们使每次实验所获得的信息量最大。
那么所需要的总实验次数就最少。
用无砝码天平的一次称重实验结果所得到的信息量为log3,k 次称重所得的信息量为klog3。
从12个硬币中鉴别其中的一个重量不同(不知是否轻或重)所需信息量为log24。
因为3log3=log27>log24。
所以在理论上用3次称重能够鉴别硬币并判断其轻或重。
每次实验应使结果具有最大的熵。
其中的一个方法如下:第一次称重:将天平左右两盘各放4枚硬币,观察其结果:①平衡 ②左倾 ③右倾。
ⅰ)若结果为①,则假币在未放入的4枚币,第二次称重:将未放入的4枚中的3枚和已称过的3枚分别放到左右两盘,根据结果可判断出盘中没有假币;若有,还能判断出轻和重,第三次称重:将判断出含有假币的三枚硬币中的两枚放到左右两盘中,便可判断出假币。
ⅱ)若结果为②或③即将左盘中的3枚取下,将右盘中的3枚放到左盘中,未称的3枚放到右盘中,观察称重砝码,若平衡,说明取下的3枚中含假币,只能判出轻重,若倾斜方向不变,说明在左、右盘中未动的两枚中其中有一枚为假币,若倾斜方向变反,说明从右盘取过的3枚中有假币,便可判出轻重。
(2)第三次称重 类似ⅰ)的情况,但当两个硬币知其中一个为假,不知为哪个时,第三步用一个真币与其中一个称重比较即可。
对13个外形相同的硬币情况.第一次按4,4,5分别称重,如果假币在五个硬币的组里,则鉴别所需信息量为log10>log9=2log3,所以剩下的2次称重不能获得所需的信息.2.6. (1)215log =15比特; (2) 1比特;(3)15个问题2. 7. 证明: (略) 2.8. 证明: (略)2.9.31)(11=b a p ,121)(21=b a p ,121)(31=b a p ,61)()(1312==b a b a p p ,241)()()()(33233222====b a b a b a b a p p p p。
《信息论基础》参考答案一、填空题(共15分,每空1分)1、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。
2、信源的剩余度主要来自两个方面,一是信源符号间的相关性,二是信源符号的统计不均匀性。
3、三进制信源的最小熵为0,最大熵为32log bit/符号。
4、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r (S))。
5、当R=C 或(信道剩余度为0)时,信源与信道达到匹配。
6、根据信道特性是否随时间变化,信道可以分为恒参信道和随参信道。
7、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。
8、若连续信源输出信号的平均功率为2σ,则输出信号幅度的概率密度是高斯分布或正态分布或()222x f x σ-=时,信源具有最大熵,其值为值21log 22e πσ。
9、在下面空格中选择填入数学符号“,,,=≥≤〉”或“〈”(1)当X 和Y 相互独立时,H (XY )=H(X)+H(X/Y)=H(Y)+H(X)。
(2)()()1222H X X H X =≥()()12333H X X X H X = (3)假设信道输入用X 表示,信道输出用Y 表示。
在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)<H(X)。
二、(6分)若连续信源输出的幅度被限定在【2,6】区域内,当输出信号的概率密度是均匀分布时,计算该信源的相对熵,并说明该信源的绝对熵为多少。
()1,2640,x f x ⎧≤≤⎪=⎨⎪⎩Q 其它()()()62log f x f x dx ∴=-⎰相对熵h x=2bit/自由度该信源的绝对熵为无穷大。
三、(16分)已知信源1234560.20.20.20.20.10.1S s s s s s s P ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦(1)用霍夫曼编码法编成二进制变长码;(6分) (2)计算平均码长L ;(4分)(3)计算编码信息率R ';(2分)(4)计算编码后信息传输率R ;(2分) (5)计算编码效率η。
∶∶∶∶∶∶∶∶∶∶装∶∶∶∶∶∶∶∶∶∶∶订∶∶∶∶∶∶∶∶∶∶∶∶∶线∶∶∶∶∶∶∶∶∶∶∶∶∶∶∶∶试卷评分标准及标准答案(2013 — 2014 学年度第 1 学期)《课程(A 卷)一、选择题(本大题共6小题,每小题3分,共18分)1. 有一信源X,其概率分布为12341/41/81/81/2X x x x xP⎛⎫⎛⎫=⎪ ⎪⎝⎭⎝⎭,若对该信源进行二次扩展,则每二个符号的平均信息量是(A )A. 3.5bitB. 1.5bitC. 1.75bitD. 3bit2. 信源的概率密度为()1352xp x⎧≤≤⎪=⎨⎪⎩其它,则信源的差熵为(D )bit/自由度.A.1/2B.1/3C.1/5D.13. 某二元对称信源011/21/2XP⎛⎫⎛⎫=⎪ ⎪⎝⎭⎝⎭,失真矩阵0220d⎛⎫⎪⎝⎭=,则minD和maxD分别为( B )A. 1, 2B. 0, 1C. 1, 1D. 2, 24. 掷两粒骰子,当点数和为7时,该消息包含的信息量是(A )A. log6B. log36C. log18D. log35. 设信道输入用X表示,信道输出用Y表示。
在无噪无损信道中,()H X Y(C )0。
A. >B. <C. =D. 不确定6. 马氏源的转移概率如图所示,则其所对应的概率转移矩阵为(C )1/2A.1/201/201/21/21/302/3⎛⎫⎪⎪⎪⎝⎭B.1/211/21/21/21/21/302/3⎛⎫⎪⎪⎪⎝⎭C.1/32/3001/21/21/201/2⎛⎫⎪⎪⎪⎝⎭D.1/201/201/21/21/32/30⎛⎫⎪⎪⎪⎝⎭二、填空题(本大题共5小题,每小题3分,共15分)1. 信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。
2. 无失真信源编码定理(香农第一定理),可以简述为:存在无失真信源编码的充分必要条件是R H X()()R H X≥或信源编码码率不小于信源的熵()。
信息论基础智慧树知到课后章节答案2023年下潍坊学院潍坊学院第一章测试1.信息论的奠基人是()。
A:香农 B:阿姆斯特朗 C:哈特利 D:奈奎斯特答案:香农2.下列不属于信息论的研究内容的是()。
A:纠错编码 B:信息的产生 C:信道传输能力 D:信源、信道模型答案:信息的产生3.下列不属于消息的是()A:文字 B:图像 C:信号 D:语音答案:信号4.信息就是消息. ()A:错 B:对答案:错5.信息是不可以度量的,是一个主观的认识。
()A:错 B:对答案:错6.任何已经确定的事物都不含有信息。
()A:对 B:错答案:对7.1948年香农的文章《通信的数学理论》奠定了香农信息理论的基础。
()A:错 B:对答案:对8.信息论研究的目的就是要找到信息传输过程的共同规律,以提高信息传输的(),使信息传输系统达到最优化。
A:有效性 B:认证性 C:可靠性 D:保密性答案:有效性;认证性;可靠性;保密性9.下列属于香农信息论的主要研究理论的是()。
A:压缩理论 B:调制理论 C:保密理论 D:传输理论答案:压缩理论;保密理论;传输理论10.信源编码的作用包含()。
A:检错纠错 B:对信源的输出进行符号变换 C:数据压缩 D:提升信息传输的安全性答案:对信源的输出进行符号变换;数据压缩第二章测试1.信息传输系统模型中,用来提升信息传输的有效性的部分为()A:信源 B:信道编码器、信道译码器 C:信道 D:信源编码器、信源译码器答案:信源编码器、信源译码器2.对于自信息,以下描述正确的是()A:以2为底时,单位是奈特。
B:以2为底时,单位是比特。
C:以10为底时,单位是奈特。
D:以e为底时,单位是比特答案:以2为底时,单位是比特。
3.信息熵的单位是()A:比特 B:比特每符号 C:无法确定答案:比特每符号4.必然事件和不可能事件的自信息量都是0 。
()A:错 B:对答案:错5.概率大的事件自信息量大。
信息基础试题及答案一、单选题(每题2分,共10分)1. 计算机中数据的最小单位是什么?A. 字节B. 位C. 字D. 兆答案:B2. 下列哪个选项不是计算机硬件?A. 中央处理器B. 操作系统C. 内存D. 硬盘答案:B3. 以下哪种网络协议用于网页传输?A. FTPB. HTTPC. SMTPD. POP3答案:B4. 以下哪种存储设备不是永久存储设备?A. 固态硬盘B. 机械硬盘C. 光盘D. 随机存取存储器(RAM)答案:D5. 以下哪个选项是计算机病毒的特点?A. 可自我复制B. 只能通过用户手动传播C. 总是立即显现症状D. 不能通过电子邮件传播答案:A二、多选题(每题3分,共15分)6. 以下哪些属于计算机软件的分类?A. 系统软件B. 应用软件C. 硬件D. 网络软件答案:A、B、D7. 以下哪些是计算机操作系统的功能?A. 进程管理B. 设备管理C. 文件管理D. 网络管理答案:A、B、C、D8. 以下哪些是计算机病毒的传播途径?A. 通过电子邮件B. 通过U盘C. 通过社交软件D. 通过正规软件下载答案:A、B、C9. 以下哪些属于计算机硬件的组成部分?A. 中央处理器B. 显卡C. 键盘D. 鼠标答案:A、B、C、D10. 以下哪些是计算机安全防护措施?A. 安装防病毒软件B. 定期更新操作系统C. 从不下载不明来源的软件D. 忽略安全警告答案:A、B、C三、判断题(每题1分,共10分)11. 计算机的存储设备包括硬盘、固态硬盘和内存。
(对)12. 计算机病毒只能通过电子邮件传播。
(错)13. 计算机的中央处理器(CPU)是计算机的核心部件,负责执行程序指令。
(对)14. 计算机的内存(RAM)是永久存储设备。
(错)15. 计算机操作系统的主要功能是管理计算机硬件资源。
(对)16. 计算机的显卡负责处理和输出图形和视频信号。
(对)17. 计算机的网络协议决定了数据在网络中的传输方式。
信息论基础1答案LT计算信息量:1.当点数和为3时,该消息包含的信息量是多少?2.当点数和为7是,该消息包含的信息量是多少?3.两个点数中没有一个是1的自信息是多少?解:1.P(“点数和为3”)=P(1,2)+ P(1,2)=1/36+1/36=1/18则该消息包含的信息量是:I=-logP(“点数和为3”)=log18=4.17bit2.P(“点数和为7”)=P(1,6)+ P(6,1)+ P(5,2)+ P(2,5)+ P(3,4)+ P(4,3)=1/36 6=1/6则该消息包含的信息量是:I=-logP(“点数和为7”)=log6=2.585bit3.P(“两个点数没有一个是1”)=1-P (“两个点数中至少有一个是1”)=1-P(1,1or1,jori,1)=1-(1/36+5/36+5/36)=25/36则该消息包含的信息量是:I=-logP (“两个点数中没有一个是1”)=log25/36=0.53bit三、设X 、Y 是两个相互统计独立的二元随机变量,其取-1或1的概率相等。
定义另一个二元随机变量Z ,取Z=YX (一般乘积)。
试计算: 1.H (Y )、H (Z ); 2.H (XY )、H (YZ ); 3.I (X;Y )、I (Y;Z ); 解: 1.2i 11111H Y P y logP y log log 2222i i =⎡⎤=-+⎢⎥⎣⎦∑()=-()()=1bit/符号Z=YX 而且X 和Y 相互独立∴1(1)(1)(1)P P X P Y P X ⋅=+=-⋅=-(Z =1)=P(Y=1)= 11122222⨯+⨯=2(1)(1)(1)P P X P Y P X ⋅=-+=-⋅=(Z =-1)=P(Y=1)=11122222⨯+⨯=故H(Z)= i2i1(z )log (z )i P P =-∑=1bit/符号2.从上式可以看出:Y 与X 的联合概率分布为:H(YZ)=H(X)+H(Y)=1+1=2bit/符号 3.X与Y相互独立,故H(X|Y)=H(X)=1bit/符号∴I (X;Y )=H(X)-H(X|Y)=1-1=0bit/符号I(Y;Z)=H(Y)-H(Y|Z)=H(Y)-[H(YZ)-H(Z)]=0 bit/符号四、如图所示为一个三状态马尔科夫信源的转移概率矩阵P=1102211022111424⎛⎫ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪⎝⎭1. 绘制状态转移图;P(Y,Z) Y=1 Y=-1Z=1 0.25 0.25 Z=-1 0.25 0.252. 求该马尔科夫信源的稳态分布;3. 求极限熵;解:1.状态转移图如右图 2.由公式31()()(|)jiji i p E P E P EE ==∑,可得其三个状态的稳态概率为:1123223313123111()()()()22411()()()2211()()()24()()()1P E P E P E P E P E P E P E P E P E P E P E P E P E ⎧=++⎪⎪⎪=+⎪⎨⎪=+⎪⎪⎪++=⎩1233()72()72()7P E P E P E ⎧=⎪⎪⎪⇒=⎨⎪⎪=⎪⎩3.其极限熵:3i i 13112112111H = -|E =0+0+72272274243228=1+1+ 1.5=bit/7777i P H H H H ∞=⨯⨯⨯⨯⨯⨯∑(E )(X )(,,)(,,)(,,)符号五、在干扰离散对称信道上传输符号1和0,已知P (0)=1/4,P(1)=3/4,试求:1. 该信道的转移概率矩阵P2. 信道疑义度H (X|Y )3. 该信道的信道容量以及其输入概率分布 解:1.该转移概率矩阵为P=0.90.10.10.9⎡⎤⎢⎥⎣⎦2.根据P (XY )=P (Y|X )⋅P (X ),可得联合概率P (XY ) Y Y X=0 9/40 1/40 X=13/4027/401 0.0.0.0.1P(Y=i) 12/40 28/40 由P (X|Y )=P(X|Y)/P(Y)可得P(X|Y) Y=0 Y=1 X=0 3/4 1/28 X=1 1/427/28H(X|Y)=-i jiji j(x y )log x |y =0.09+0.12+0.15+0.035=0.4bit/P P∑,()符号 3.该信道是对称信道,其容量为: C=logs-H=log2-H(0.9,0.1)=1-0.469=0.531bit/符号这时,输入符号服从等概率分布,即0111()22X P X ⎡⎤⎡⎤⎢⎥=⎢⎥⎢⎥⎣⎦⎣⎦六、某信道的转移矩阵⎥⎦⎤⎢⎣⎡=1.006.03.001.03.06.0P试求:该信道的信道容量及其最佳输入概率分布。
○?○?大学 2008-2009 学年第一学期2006级 信息与计算科学专业 本 科 卷 A 参考答案与评分标准课程名称 信息论基础课程号(???) 考试形式(闭卷笔试) 时间(120分钟))一、判断题:本题共10小题,每题2分,满分20分。
1、√;2、√;3、×;4、×;5、√;6、×;7、×;8、√;9、√;10、×。
二、填空题:本题共7小题,每空2分,满分20分。
1、码字的最小距离(min d );2、(减少)冗余,提高编码效率; 提高信息传递的可靠性;3、系统码;4、无失真信源编码定理,信道编码定理,限失真信源编码定理;5、信道和信源都是无记忆;6、香农编码;7、2a。
三、计算题:本题共4小题,满分50分。
(15分)解:1/21/201/21/41/4P ⎡⎤=⎢⎥⎣⎦联合概率(,)i p x y则Y(2分)(1)11+414()log 2log log 24141a a H Y a a -=+++- ------------------(2分) 211161log 2log log 24141a aa a -=++-+ 211111log 2log16log log 244141a aa a -=+++-+23111log 2log log 24141a aa a-=++-+;取2为底2223111()(log log )24141a aH Y bit a a-=++-+; ------------------(1分) (2)11111111(|)log log log log log 2222224444aa a a a H Y X ---⎡⎤=-++++⎢⎥⎣⎦3(1)log 2log 22a a -=-+3log 22a-=; 取2为底,3(|)2aH Y X bit -=; ------------------(2分) (3)[]2()()()111max (;)max ()(|)max log 2log log 24411i i i p x p x p x aa a C I X Y H Y H Y X a a -⎛⎫==-=++ ⎪+-⎝⎭。
信息论基础第二版习题答案信息论是一门研究信息传输和处理的学科,它的基础理论是信息论。
信息论的基本概念和原理被广泛应用于通信、数据压缩、密码学等领域。
而《信息论基础》是信息论领域的经典教材之一,它的第二版是对第一版的修订和扩充。
本文将为读者提供《信息论基础第二版》中部分习题的答案,帮助读者更好地理解信息论的基本概念和原理。
第一章:信息论基础1.1 信息的定义和度量习题1:假设有一个事件发生的概率为p,其信息量定义为I(p) = -log(p)。
求当p=0.5时,事件的信息量。
答案:将p=0.5代入公式,得到I(0.5) = -log(0.5) = 1。
习题2:假设有两个互斥事件A和B,其概率分别为p和1-p,求事件A和B 同时发生的信息量。
答案:事件A和B同时发生的概率为p(1-p),根据信息量定义,其信息量为I(p(1-p)) = -log(p(1-p))。
1.2 信息熵和条件熵习题1:假设有一个二进制信源,产生0和1的概率分别为p和1-p,求该信源的信息熵。
答案:根据信息熵的定义,信源的信息熵为H = -plog(p) - (1-p)log(1-p)。
习题2:假设有两个独立的二进制信源A和B,产生0和1的概率分别为p和1-p,求两个信源同时发生时的联合熵。
答案:由于A和B是独立的,所以联合熵等于两个信源的信息熵之和,即H(A,B) = H(A) + H(B) = -plog(p) - (1-p)log(1-p) - plog(p) - (1-p)log(1-p)。
第二章:信道容量2.1 信道的基本概念习题1:假设有一个二进制对称信道,其错误概率为p,求该信道的信道容量。
答案:对于二进制对称信道,其信道容量为C = 1 - H(p),其中H(p)为错误概率为p时的信道容量。
习题2:假设有一个高斯信道,信道的信噪比为S/N,求该信道的信道容量。
答案:对于高斯信道,其信道容量为C = 0.5log(1 + S/N)。
《信息论基础》试卷答案一、填空题(共20分,每空1分)1、通信系统中,编码的主要目的有两个,分别是提高有效性和可靠性。
2、离散无记忆信源存在剩余度的原因是分布不等概。
3、当信源各符号无相关性、等概分布时,信源熵为最大值。
八进制信源的最大熵为3/bit 符号,最小熵为0/bit 符号。
4、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r (S))。
5、一个事件发生概率为0.125,则自相关量为3bit 。
6、根据信原输出随机序列中随机变量前后之间有无统计依赖性,信原可以分为有记忆信源和无记忆信源。
7、噪声瞬时值的概率密度函数服从高斯分布,同时功率谱密度为均匀分布的噪声称为高斯白噪声。
8、当R=C 或(信道剩余度为0)时,信源与信道达到匹配。
9、若连续信源输出信号的平均功率为2σ,则输出信号幅度的概率密度是高斯分布或正2x -21log 22e πσ。
9,,,=≥≤>”或“〈” (1)()H XY =H(Y)+H(X|Y)H(Y)+H(X)≤(2)假设信道输入用X 表示,信道输出用Y 表示。
在有噪无损信道中, H(X/Y)= 0, H(Y/X)>0,I(X;Y)=H(X)。
二、(6分)若连续信源输出的幅度被限定在【1,3】区域内,当输出信号的概率密度是均匀分布时,计算该信源的相对熵,并说明该信源的绝对熵为多少。
解:该信源的相对熵:()h(X)=log b-a log(31)1bit =-=绝对熵为+∞三、(16分)已知信源12345S P 0.250.20.20.20.15s s s s s ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦(1)用霍夫曼编码法编成二进制变长码;(4分)(2)计算平均码长—L ;(4分)(3)计算编码信息率R ';(4分)(4)计算编码后信息传输率R ;(2分)(5)计算编码效率η。
(2分)解:(1)霍夫曼编码后的二进制变长码:S1:10, S2:00, S3:00, S4:110, S5:111,S1 0.25S2 0.2S3 0.2S4 0.2S5 0.1501.00.40.35011000.61(2)平均码长:I=0.35*3+0.65*2=2.35码元/符号;(3)编码信息率:R '=—L *logr=2.35*1=2.35 bit/信源符号(4)编码后信息传输率: 111110.25log 0.2log 0.2log 0.2log 0.15log H(s)0.250.20.20.20.15R= 2.35L 0.50.6*2.3220.15*2.7370.982.35++++=+==— (5)编码效率:η =H(s)L—=98%四、(12分)已知一个平均功率受限的连续信号,通过带宽W 10MHz =的高斯白噪声信道,试计算(1)若信噪比为10,信道容量为多少?(4分)(2)若信道容量不变,信噪比降为5,信道带宽为多少?(4分)(3)若信道通频带减为5MHz 时,要保持相同的信道容量,信道上的信号与噪声的平均功率比值应等于多少?(4分)解: (1)根据香农公式:()()67Wlog 1SNR 1010log 110 3.4610C =+=⨯⨯+=⨯ (2)当SNR 5=,()()7Wlog 1SNR Wlog 15 3.4610C =+=+=⨯则 773.4610W 1.33810Hz 2.585⨯==⨯ (3)当带宽减为5MHz ,()()67Wlog 1SNR 510log 1SNR 3.4610+=⨯⨯+=⨯ SNR =120五、(16分)某个信息源发出符号的概率为:12()(),P a P a =3()0.4,P a =假设该信息源发出的符号前后有关联,其依赖关系为:112122321333312133(|);(|);(|);(|);(|);(|);443344P a a P a a P a a P a a P a a P a a ======(1) 画出状态转移图(4分)(2) 计算稳态概率(4分)(3) 计算信源的极限熵(4分)(4) 计算稳态下H1,H2及其对应的剩余度。