信息论与编码知识梳理及课后答案分解
- 格式:ppt
- 大小:722.00 KB
- 文档页数:67
第二章 信息量和熵2.2 八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它的信息速率。
解:同步信息均相同,不含信息,因此 每个码字的信息量为 2⨯8log =2⨯3=6 bit 因此,信息速率为 6⨯1000=6000 bit/s2.3 掷一对无偏骰子,告诉你得到的总的点数为:(a) 7; (b) 12。
问各得到多少信息量。
解:(1) 可能的组合为 {1,6},{2,5},{3,4},{4,3},{5,2},{6,1})(a p =366=61 得到的信息量 =)(1loga p =6log =2.585 bit (2) 可能的唯一,为 {6,6} )(b p =361 得到的信息量=)(1log b p =36log =5.17 bit2.4 经过充分洗牌后的一副扑克(52),问:(a) 任何一种特定的排列所给出的信息量是多少?(b) 若从中抽取13牌,所给出的点数都不相同时得到多少信息量?解:(a) )(a p =!521 信息量=)(1loga p =!52log =225.58 bit (b) ⎩⎨⎧⋯⋯⋯⋯花色任选种点数任意排列13413!13)(b p =1352134!13A ⨯=1352134C 信息量=1313524log log -C =13.208 bit2.9 随机掷3颗骰子,X 表示第一颗骰子的结果,Y 表示第一和第二颗骰子的点数之和,Z 表示3颗骰子的点数之和,试求)|(Y Z H 、)|(Y X H 、),|(Y X Z H 、)|,(Y Z X H 、)|(X Z H 。
解:令第一第二第三颗骰子的结果分别为321,,x x x ,1x ,2x ,3x 相互独立,则1x X =,21x x Y +=,321x x x Z ++=)|(Y Z H =)(3x H =log 6=2.585 bit )|(X Z H =)(32x x H +=)(Y H =2⨯(361log 36+362log 18+363log 12+364log 9+365log 536)+366log 6 =3.2744 bit)|(Y X H =)(X H -);(Y X I =)(X H -[)(Y H -)|(X Y H ]而)|(X Y H =)(X H ,所以)|(Y X H = 2)(X H -)(Y H =1.8955 bit或)|(Y X H =)(XY H -)(Y H =)(X H +)|(X Y H -)(Y H而)|(X Y H =)(X H ,所以)|(Y X H =2)(X H -)(Y H =1.8955 bit),|(Y X Z H =)|(Y Z H =)(X H =2.585 bit)|,(Y Z X H =)|(Y X H +)|(XY Z H =1.8955+2.585=4.4805 bit2.10 设一个系统传送10个数字,0,1,…,9。
信息论与编码陈运主编答案完整版信息论与编码课后习题答案详解试问四进制、⼋进制脉冲所含信息量是⼆进制脉冲的多少倍?解:四进制脉冲可以表⽰4 个不同的消息,例如:{0, 1, 2, 3}⼋进制脉冲可以表⽰8 个不同的消息,例如:{0, 1, 2, 3, 4, 5, 6, 7} ⼆进制脉冲可以表⽰ 2 个不同的消息,例如:{0, 1} 假设每个消息的发出都是等概率的,则:四进制脉冲的平均信息量H X( 1) = log n = log4 = 2 bit symbol/ ⼋进制脉冲的平均信息量H X( 2) = log n = log8 = 3 bit symbol/⼆进制脉冲的平均信息量H X( 0) = log n = log2 =1 bit symbol/所以:四进制、⼋进制脉冲所含信息量分别是⼆进制脉冲信息量的 2 倍和3 倍。
居住某地区的⼥孩⼦有25%是⼤学⽣,在⼥⼤学⽣中有75%是⾝⾼160厘⽶以上的,⽽⼥孩⼦中⾝⾼160厘⽶以上的占总数的⼀半。
假如我们得知“⾝⾼160厘⽶以上的某⼥孩是⼤学⽣”的消息,问获得多少信息量?解:设随机变量X 代表⼥孩⼦学历X x1(是⼤学⽣)x2(不是⼤学⽣)P(X)设随机变量Y 代表⼥孩⼦⾝⾼Y y1(⾝⾼>160cm)y2(⾝⾼<160cm)P(Y)已知:在⼥⼤学⽣中有75%是⾝⾼160 厘⽶以上的即:p y( 1 / x1) = bit求:⾝⾼160 厘⽶以上的某⼥孩是⼤学⽣的信息量p x p y( 1) ( 1 / x1 ) log ×=bit即:I x( 1 / y1 ) =log p x( 1 / y1 ) = log =p y( 1 )⼀副充分洗乱了的牌(含52张牌),试问 (1) 任⼀特定排列所给出的信息量是多少?(2) 若从中抽取13张牌,所给出的点数都不相同能得到多少信息量?解:(1) 52 张牌共有 52!种排列⽅式,假设每种排列⽅式出现是等概率的则所给出的信息量是:p x ( i ) =I x ( i ) =?log p x ( i ) = log52!= bit(2) 52 张牌共有 4 种花⾊、13 种点数,抽取 13 张点数不同的牌的概率如下:p x ( i ) =C 5213413I x ( i ) = ?log p x ( i ) = ?logC 5213 = bit设离散⽆记忆信源P X (X ) = x 31 /=80x 2 =1 x 3 = 2 x 4 = 3??,其发出的信息为 1/4 1/4 1/8 ?(202032),求(1) 此消息的⾃信息量是多少?(2) 此消息中平均每符号携带的信息量是多少?解:(1) 此消息总共有 14 个 0、13 个 1、12 个 2、6 个 3,因此此消息发出的概率是:p = ??3??14 ×?? 1 ??25 ×??1??6 ?8?48此消息的信息量是:I =?log p = bit(2) 此消息中平均每符号携带的信息量是:I n / = 45 = bit从⼤量统计资料知道,男性中红绿⾊盲的发病率为7%,⼥性发病率为%,如果你问⼀位男⼠:“你是否是⾊盲?”他的回答可能是“是”,可能是“否”,问这两个回答中各含多少信息量,平均每个回答中含有多少信息量?如果问⼀位⼥⼠,则答案中含有的平均⾃信息量是多少?解:男⼠: p x ( Y ) = 7%I x ( Y ) = ?log p x ( Y ) = ? = bit p x ( N ) = 93%I x ( N ) = ?log p x ( N ) = ? = bit H X () p x ( )log p x ( ) bitsymbol /i⼥⼠:H X () p x ( )log p x ( )bit symbol /P X ( )H(X) > log6不满⾜信源熵的极值性。
信息论与编码习题参考答案 第一章 单符号离散信源1.1同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。
解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:(3)信源空间:bit x H 32.436log 3662log 3615)(=⨯⨯+⨯⨯=∴ (4)信源空间: bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格。
(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。
解:bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率bitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知 bitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。
信息论与编码理论课后答案【篇一:《信息论与编码》课后习题答案】式、含义和效用三个方面的因素。
2、 1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。
3、按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。
4、按照信息的地位,可以把信息分成客观信息和主观信息。
5、人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。
6、信息的是建立信息论的基础。
7、8、是香农信息论最基本最重要的概念。
9、事物的不确定度是用时间统计发生概率的对数来描述的。
10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。
11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值。
12、自信息量的单位一般有比特、奈特和哈特。
13、必然事件的自信息是。
14、不可能事件的自信息量是15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。
16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。
17、离散平稳无记忆信源x的n次扩展信源的熵等于离散信源x的熵的。
limh(xn/x1x2?xn?1)h?n???18、离散平稳有记忆信源的极限熵,。
19、对于n元m阶马尔可夫信源,其状态空间共有m个不同的状态。
20、一维连续随即变量x在[a,b] 。
1log22?ep21、平均功率为p的高斯分布的连续信源,其信源熵,hc(x)=2。
22、对于限峰值功率的n维连续信源,当概率密度均匀分布时连续信源熵具有最大值。
23、对于限平均功率的一维连续信源,当概率密度24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值p和信源的熵功率p25、若一离散无记忆信源的信源熵h(x)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为。
2728、同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和5同时出现”这件事的自信息量是 ?mn?ki?11?mp(x)?em29、若一维随即变量x的取值区间是[0,∞],其概率密度函数为,其中:x?0,m是x的数学2期望,则x的信源熵c。
《信息论与编码》课后习题答案1、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。
2、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。
3、按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。
4、按照信息的地位,可以把信息分成客观信息和主观信息。
5、人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。
6、信息的可度量性是建立信息论的基础。
7、统计度量是信息度量最常用的方法。
8、熵是香农信息论最基本最重要的概念。
9、事物的不确定度是用时间统计发生概率的对数来描述的。
10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。
11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值。
12、自信息量的单位一般有比特、奈特和哈特。
13、必然事件的自信息是 0 。
14、不可能事件的自信息量是∞ 。
15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。
16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。
17、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍。
18、离散平稳有记忆信源的极限熵,。
19、对于n 元m 阶马尔可夫信源,其状态空间共有 n m 个不同的状态。
20、一维连续随即变量X 在[a ,b]区间内均匀分布时,其信源熵为 log 2(b-a )。
21、平均功率为P 的高斯分布的连续信源,其信源熵,H c (X )=。
22、对于限峰值功率的N 维连续信源,当概率密度均匀分布时连续信源熵具有最大值。
23、对于限平均功率的一维连续信源,当概率密度高斯分布时,信源熵有最大值。
24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值P 和信源的熵功率之比。
25、若一离散无记忆信源的信源熵H (X )等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为 3 。
信息论与编码课后习题答案信息论与编码课后习题答案[信息论与编码]课后习题答案1、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。
2、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。
3、按照信息的性质,可以把信息分为语法信息、语义信息和语用信息。
4、按照信息的地位,可以把信息分成客观信息和主观信息。
5、人们研究信息论的目的就是为了高效率、可信、安全地互换和利用各种各样的信息。
6、信息的是建立信息论的基础。
8、就是香农信息论最基本最重要的概念。
9、事物的不确定度是用时间统计发生概率的对数来描述的。
10、单符号线性信源通常用随机变量叙述,而多符号线性信源通常用随机矢量叙述。
11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值。
12、自信息量的单位通常存有比特、奈特和哈特。
13、必然事件的自信息是。
14、不可能将事件的自信息量就是15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。
16、数据处理定理:当消息经过多级处置后,随着处理器数目的激增,输出消息与输入消息之间的平均值互信息量趋向变大。
17、离散平稳无记忆信源x的n次扩展信源的熵等于离散信源x的熵的。
limh(xn/x1x2xn1)h n18、线性稳定存有记忆信源的音速熵,。
19、对于n元m阶马尔可夫信源,其状态空间共有m个不同的状态。
20、一维已连续随即变量x在[a,b]。
1log22ep21、平均功率为p的高斯分布的已连续信源,其信源熵,hc(x)=2。
22、对于限峰值功率的n维连续信源,当概率密度均匀分布时连续信源熵具有最大值。
23、对于减半平均功率的一维已连续信源,当概率密度24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值p和信源的熵功率p25、若一线性并无记忆信源的信源熵h(x)等同于2.5,对信源展开相切的并无杂讯二进制编码,则编码长度至少为。
信息论与编码-曹雪虹-第五章-课后习题答案第五章(2) 哪些码是⾮延长码?(3) 对所有唯⼀可译码求出其平均码长和编译效率。
解:⾸先,根据克劳夫特不等式,找出⾮唯⼀可译码31123456231244135236:62163:22222216463:164:22421:2521:2521C C C C C C --------------?<+++++=<<++?=+?>+?<5C ∴不是唯⼀可译码,⽽4C :⼜根据码树构造码字的⽅法1C ,3C ,6C 的码字均处于终端节点∴他们是即时码(1) 因为A,B,C,D四个字母,每个字母⽤两个码,每个码为0.5ms, 所以每个字母⽤10ms当信源等概率分布时,信源熵为H(X)=log(4)=2平均信息传递速率为bit/ms=200bit/s(2) 信源熵为H(X)==0.198bit/ms=198bit/s5-541811613216411281128H(U)=1 2Log2() 14Log4() +18Log8() +116Log16 ()+132Log32 ()Log64()+1128Log128()+1128Log128()+ 1.984= (2) 每个信源使⽤3个⼆进制符号,出现0的次数为出现1的次数为P(0)=P(1)=(3)相应的费诺码(5)⾹农码和费诺码相同平均码长为编码效率为:5-11(1)信源熵(2)⾹农编码:平均码长:编码效率为(3)平均码长为:编码效率:4平均码长为:编码效率:5.16 已知⼆元信源{0,1},其p0=1/4,p1=3/4,试⽤式(4.129)对序列11111100编算术码,并计算此序列的平均码长。
解:根据算术编码的编码规则,可得:P(s=11111100) = P2(0)P6(1) = (3/4)6 (1/4)27)(1log =??=S P l根据(4.129)可得:F(S) = P(0) + P(10) + P(110) + P(1110) + P(11110) + P(111110) = 1–∑≥sy y P )(= 1 – P(11111111) – P(11111110) – P(11111101) – P(11111100)= 1– P(111111) = 1– (3/4)6 = 0.82202 = 0.110100100111⼜P(S) = A(S)= 0.0000001011011001,所以F(S) + P(S) = 0.1101010 即得C = 0.1101010 得S 的码字为1101010平均码长L 为 0.875。
信息论与编码课后习题答案第二章2.3 同时掷出两个正常的骰子,也就是各面呈现的概率都为1/6,求:(1) “3和5同时出现”这事件的自信息; (2) “两个1同时出现”这事件的自信息;(3) 两个点数的各种组合(无序)对的熵和平均信息量; (4) 两个点数之和(即2, 3, … , 12构成的子集)的熵; (5) 两个点数中至少有一个是1的自信息量。
解:(1)bitx p x I x p i i i 170.4181log )(log )(18161616161)(=-=-==⨯+⨯=(2)bitx p x I x p i i i 170.5361log )(log )(3616161)(=-=-==⨯=(3)两个点数的排列如下: 11 12 13 14 15 16 21 22 23 24 25 26 31 32 33 34 35 36 41 42 43 44 45 46 51 52 53 54 55 56 61 62 63 64 65 66共有21种组合:其中11,22,33,44,55,66的概率是3616161=⨯ 其他15个组合的概率是18161612=⨯⨯ symbol bit x p x p X H ii i / 337.4181log 18115361log 3616)(log )()(=⎪⎭⎫ ⎝⎛⨯+⨯-=-=∑参考上面的两个点数的排列,可以得出两个点数求和的概率分布如下:symbolbit x p x p X H X P X ii i / 274.3 61log 61365log 365291log 912121log 1212181log 1812361log 3612 )(log )()(36112181111211091936586173656915121418133612)(=⎪⎭⎫ ⎝⎛+⨯+⨯+⨯+⨯+⨯-=-=⎪⎭⎪⎬⎫⎪⎩⎪⎨⎧=⎥⎦⎤⎢⎣⎡∑(5)bit x p x I x p i i i 710.13611log)(log )(3611116161)(=-=-==⨯⨯=2.42.12 两个实验X 和Y ,X={x 1 x 2 x 3},Y={y 1 y 2 y 3},l 联合概率(),i j ij r x y r =为1112132122233132337/241/2401/241/41/2401/247/24r r r r r r rr r ⎛⎫⎛⎫⎪ ⎪= ⎪ ⎪ ⎪ ⎪⎝⎭⎝⎭(1) 如果有人告诉你X 和Y 的实验结果,你得到的平均信息量是多少?(2) 如果有人告诉你Y 的实验结果,你得到的平均信息量是多少?(3) 在已知Y 实验结果的情况下,告诉你X 的实验结果,你得到的平均信息量是多少?解:联合概率(,)i j p x y 为 22221(,)(,)log (,)724112log 4log 24log 4247244i j i j ijH X Y p x y p x y ==⨯+⨯+∑=2.3bit/符号X 概率分布 21()3log 3 1.583H Y =⨯=bit/符号(|)(,)() 2.3 1.58H X Y H X Y H Y =-=- Y 概率分布是 =0.72bit/符号 Y y1 y2 y3 P8/248/248/242.15P(j/i)=2.16 黑白传真机的消息元只有黑色和白色两种,即X={黑,白},一般气象图上,黑色的Y X y1y 2 y 3 x 1 7/24 1/24 0 x 2 1/24 1/4 1/24 x 31/247/24X x 1 x 2 x 3 P8/248/248/24出现概率p(黑)=0.3,白色出现的概率p(白)=0.7。
信息论与编码理论课后答案【篇一:《信息论与编码》课后习题答案】式、含义和效用三个方面的因素。
2、 1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。
3、按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。
4、按照信息的地位,可以把信息分成客观信息和主观信息。
5、人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。
6、信息的是建立信息论的基础。
7、8、是香农信息论最基本最重要的概念。
9、事物的不确定度是用时间统计发生概率的对数来描述的。
10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。
11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值。
12、自信息量的单位一般有比特、奈特和哈特。
13、必然事件的自信息是。
14、不可能事件的自信息量是15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。
16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。
17、离散平稳无记忆信源x的n次扩展信源的熵等于离散信源x的熵的。
limh(xn/x1x2?xn?1)h?n???18、离散平稳有记忆信源的极限熵,。
19、对于n元m阶马尔可夫信源,其状态空间共有m个不同的状态。
20、一维连续随即变量x在[a,b] 。
1log22?ep21、平均功率为p的高斯分布的连续信源,其信源熵,hc(x)=2。
22、对于限峰值功率的n维连续信源,当概率密度均匀分布时连续信源熵具有最大值。
23、对于限平均功率的一维连续信源,当概率密度24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值p和信源的熵功率p25、若一离散无记忆信源的信源熵h(x)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为。
2728、同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和5同时出现”这件事的自信息量是 ?mn?ki?11?mp(x)?em29、若一维随即变量x的取值区间是[0,∞],其概率密度函数为,其中:x?0,m是x的数学2期望,则x的信源熵c。
1. 有一个马尔可夫信源,已知p(x 1|x 1)=2/3,p(x 2|x 1)=1/3,p(x 1|x 2)=1,p(x 2|x 2)=0,试画出该信源的香农线图,并求出信源熵。
解:该信源的香农线图为:1/3○ ○2/3 (x 1) 1 (x 2)在计算信源熵之前,先用转移概率求稳定状态下二个状态x 1和 x 2 的概率)(1x p 和)(2x p 立方程:)()()(1111x p x x p x p =+)()(221x p x x p=)()(212x p x p + )()()(1122x p x x p x p =+)()(222x p x x p =)(0)(2131x p x p + )()(21x p x p +=1 得431)(=x p 412)(=x p 马尔可夫信源熵H = ∑∑-IJi j i jix x p x xp x p )(log )()( 得 H=0.689bit/符号2.设有一个无记忆信源发出符号A 和B ,已知4341)(.)(==B p A p 。
求: ①计算该信源熵;②设该信源改为发出二重符号序列消息的信源,采用费诺编码方法,求其平均信息传输速率; ③又设该信源改为发三重序列消息的信源,采用霍夫曼编码方法,求其平均信息传输速率。
解:①∑-=Xiix p x p X H )(log )()( =0.812 bit/符号②发出二重符号序列消息的信源,发出四种消息的概率分别为1614141)(=⨯=AA p 1634341)(=⨯=AB p 1634143)(=⨯=BA p 1694343)(=⨯=BB p用费诺编码方法 代码组 b iBB 0 1 BA 10 2 AB 110 3 AA 111 3无记忆信源 624.1)(2)(2==X H X H bit/双符号 平均代码组长度 2B =1.687 bit/双符号BX H R )(22==0.963 bit/码元时间③三重符号序列消息有8个,它们的概率分别为641)(=AAA p 643)(=AAB p 643)(=BAA p 643)(=ABA p 649)(=BBA p 649)(=BAB p 649)(=ABB p 6427)(=BBB p用霍夫曼编码方法 代码组 b i BBB 6427 0 0 1 BBA 649 0 )(6419 1 110 3 BAB 649 1 )(6418 )(644 1 101 3 ABB 649 0 0 100 3AAB 643 1 )(646 1 11111 5BAA 3 0 1 11110 5ABA643 1 )(6440 11101 5AAA641 0 11100 5)(3)(3X H X H ==2.436 bit/三重符号序列3B =2.469码元/三重符号序列3R =BX H )(3=0.987 bit/码元时间 3.已知符号集合{ 321,,x x x }为无限离散消息集合,它们的出现概率分别为 211)(=x p ,12)(=x p 13)(=x p ···i i x p 21)(=···求: ① 用香农编码方法写出各个符号消息的码字(代码组); ② 计算码字的平均信息传输速率; ③ 计算信源编码效率。
第二章 信源及信源熵2-1(4)2-22-32-4 38Log 83⎛⎝⎫⎪⎭14Log 4()+14Log 4()+18Log 8()+1.906=601.906⋅114.36=2-5 (1,2) (2,1) 共两种 Log 362⎛⎝⎫⎪⎭4.17= (1,6) (6,1) (2,5) (5,2) (3,4) (4,3) 共六种 Log 366⎛⎝⎫⎪⎭2.585= 2-6 0—14个 1---13个 2----12个 3---6个 P=I=2-7 Log 2()1=Log 4()2=Log 8()3=2-8 “-” 用三个脉冲 “●”用一个脉冲(1) I(●)=Log 4()2= I(-)=Log 43⎛⎝⎫⎪⎭0.415= (2) H= 14Log 4()34Log 43⎛⎝⎫⎪⎭+0.811=2.9(2) P(黑/黑)= P(白/黑)=H(Y/黑)=(3) P(黑/白)= P(白/白)=H(Y/白)=(4) P(黑)= P(白)= H(Y)=2-10 (1) H(色)=(2) P(色数)= H(色数)=(3) H(数/色)= H(色数)- H(色)=2-11 (1) H(XY)=724Log 247⎛⎝⎫⎪⎭124Log 24()+0+124Log 24()+14Log 4()+124Log 24()+0+124Log 24()+724Log 247⎛ ⎝⎫⎪⎭+ 2.301=(2) P= 得到 H(Y)=(3) H(X/Y)=H(XY)-H(Y)=2-12 (1) H X()1:=:=H()1(2)(3)2-13P(i)= P(ij)= H(IJ)=2-14(1)P(ij)= P(i/j)=(2) 方法1: =方法2:2-15P(j/i)=2-16 (1)(2) 设最后平稳概率为W1,W2得W 1=07 W 2=0.3H(Y/黑)=0.9143-Log 0.9143()0.0857Log 0.0857()-0.422= H(Y/白)=0.2-Log 0.2()0.8Log 0.8()-0.722= H(Y/X)=W 1 H(Y/黑)+ W 2 H(Y/白)=112-17(1)(2)2-24(1) H(X)=(2)=(3)2-25解方程组P T W⋅WW 1W2+1即0.25 0.750.5 0.5⎛ ⎝⎫⎪⎭W1W2⎛⎝⎫⎪⎪⎭⋅W1W2⎛⎝⎫⎪⎪⎭黑白解得W1=0.4 W2=0.6 2-26P(j/i)= 解方程组求得W=2-27 求平稳概率符号条件概率状态转移概率解方程组1/31/21/21/3得到 W=2-28(1) 求平稳概率 P(j/i)=解方程组得到(2)信源熵为:2-29P(j/i)=解方程组得到W1= , W2=, W3=2-30P(i/j)=解方程组得W1=W2=W3=信源熵为2-31P(X1)= P(j/i)= P(X1X2)=(1)a.b.求H(X2/X1)有两种方法:方法1:方法2:H(X2/X1)=∑P(x1x2)log(x2/x1)=c. 求H(X3/X2)P(X2)= 则方法1:P(X3/X2)= ) ++ =方法2:P(X3/X2)=d. 最后=(2)首先求解稳定情况下的概率解方程组得到W1 )+W2 +W3 =(3) 不做2-32(1)P(j/i)=求解方程组得p(0)=p(1)=p(2)=(2)(3) H(X)=log(3)=1.58(4) =P=当p=时达到最大值1.58当p0时H X()0当p1时H X()12-33(1)解方程组:得p(0)=p(1)=p(2)=(2)(3)当p=0或p=1时信源熵为0第三章无失真信源编码3-13-2(1) 因为A,B,C,D四个字母,每个字母用两个码,每个码为0.5ms, 所以每个字母用10ms当信源等概率分布时,信源熵为H(X)=log(4)=2平均信息传递速率为bit/ms=200bit/s(2) 信源熵为H(X)==0.198bit/ms=198bit/s3-3与上题相同3-5(1) 12141811613216411281128H(U)=1 2Log2()14Log4()+18Log8()+116Log16()+132Log32()+164Log64()+1128Log128()+1128Log128()+ 1.984=(2) 每个信源使用3个二进制符号,出现0的次数为出现1的次数为P(0)=P(1)=(3)(4) 相应的香农编码相应的费诺码(5)香农码和费诺码相同平均码长为编码效率为:3-7(1) p i=累加概率为 P i=累加概率分别为(2)信源的信息量为平均码长为:码字的平均信息传输率为 R =bit/码(3)编码效率R=100%3-10(1)H(X)=(2)3-11(1)信源熵(2)香农编码:平均码长:编码效率为(3) 费诺编码为平均码长为:编码效率:(4)哈夫曼编码平均码长为:编码效率:3-12(1)信源熵信息传输速率2.552bit/s(2)0.6(3) 香农编码平均码长:(4) 费诺编码:3-141/31/31/3 1/3 1/3 1/9 1/92/9 1/31/9 1/91/92/271/91/27第四章限失真信源编码4-1失真矩阵为4-2d1111111111110⎛⎝⎫⎪⎪⎪⎪⎭信源熵为H x()Log4()=2=Dmax =min{34,34,34,34} R(Dmax)=0Dmin=0R(Dmin)=R(0)=H(X)=log(4)=2p y1()p y2(),p y3(),p y4(),只要满足p(y1)+p(y2)+p(y3)+p(y4)=1在[0,1]区间可以任意取值。
第二章课后习题【2.1】设有12 枚同值硬币,其中有一枚为假币。
只知道假币的重量与真币的重量不同,但不知究竟是重还是轻。
现用比较天平左右两边轻重的方法来测量。
为了在天平上称出哪一枚是假币,试问至少必须称多少次?解:从信息论的角度看,“12 枚硬币中,某一枚为假币”该事件发生的概率为P1 12;“假币的重量比真的轻,或重”该事件发生的概率为P 12 ;为确定哪一枚是假币,即要消除上述两事件的联合不确定性,由于二者是独立的,因此有I log12 log 2 log 24 比特而用天平称时,有三种可能性:重、轻、相等,三者是等概率的,均为P 平每一次消除的不确定性为I log 3 比特因此,必须称的次数为13,因此天I 1 I 2 log 24log 32.9 次因此,至少需称 3 次。
【延伸】如何测量?分 3 堆,每堆 4 枚,经过 3 次测量能否测出哪一枚为假币。
【2.2】同时扔一对均匀的骰子,当得知“两骰子面朝上点数之和为2”或“面朝上点数之和为8”或“两骰子面朝上点数是 3 和4”时,试问这三种情况分别获得多少信息量?解:“两骰子总点数之和为2”有一种可能,即两骰子的点数各为1,由于二者是独立的,因此该种情况发生的概率为P 1 16 6136,该事件的信息量为:52I log 365.17 比特“两骰子总点数之和为8”共有如下可能: 2 和6、3 和5、4 和4、5 和3、6 和2,概率为P1 1 6 65 36,因此该事件的信息量为:36I log2.85 比特5“两骰子面朝上点数是3 和4”的可能性有两种:3 和4、4 和3,概率为P 1 1 6 61 18,因此该事件的信息量为:I log18 4.17 比特【2.3】如果你在不知道今天是星期几的情况下问你的朋友“明天星期几?”则答案中含有多少信息量?如果你在已知今天是星期四的情况下提出同样的问题,则答案中你能获得多少信息量(假设已知星期一至星期日的顺序)?解:如果不知今天星期几时问的话,答案可能有七种可能性,每一种都是等概率的,均为P1 7,因此此时从答案中获得的信息量为I log 72.807 比特而当已知今天星期几时问同样的问题,其可能性只有一种,即发生的概率为1,此时获得的信息量为0 比特。
第六章:信道编码(本章复习大纲我重新修改了一下,尤其要关注红色内容)1、基本概念:差错符号、差错比特;差错图样:随机差错、突发差错;纠错码分类:检错和纠错码、分组码和卷积码、线性码与非线性码、纠随机差错码和纠突发差错码;矢量空间、码空间及其对偶空间; 有扰离散信道的编码定理:-()NE R e P e (掌握信道编码定理的内容及减小差错概率的方法);线形分组码的扩展与缩短(掌握奇偶校验码及缩短码的校验矩阵、生成矩阵与原线形分组码的关系)。
2、线性分组码(封闭性):生成矩阵及校验矩阵、系统形式的G 和H 、伴随式与标准阵列译码表、码距与纠错能力、完备码(汉明码)、循环码的生成多项式及校验多项式、系统形式的循环码。
作业:6-1、6-3、6-4、6-5和6-6选一、6-7 6-8和6-9选一 6-1 二元域上4维4重失量空间的元素个数总共有24=16个,它们分别是(0,0,0,0),(0,0,0,1)…(1,1,1,1),它的一个自然基底是(0,0,0,1),(0,0,1,0),(0,1,0,0)和(1,0,0,0);其中一个二维子空间含有的元素个数为22个,选取其中一个自然基底为(0,0,0,1)和(0,0,1,0),则其二维子空间中所包含的全部矢量为(0,0,0,0,),(0,0,0,1),(0,0,1,0)和(0,0,1,1)(注选择不唯一);上述子空间对应的对偶子空间可以有三种不同的选择:(0,0,0,0) ,(0,1,0,0),(1,0,0,0),(1,1,0,0)或(0,0,0,0) ,(0,1,0,0)或(0,0,0,0) (1,0,0,0)。
(注意本题中所包含的关于矢量空间的一些基本概念)6-3 由题设可以写出该系统(8,4)码的线形方程组如下:736251403320231012100321v u v u v u v u v u u u v u u u v u u u v u u u=⎧⎪=⎪⎪=⎪=⎪⎨=++⎪⎪=++⎪=++⎪⎪=++⎩(注:系统码高四位与信息位保持一致,u i 为信息位) 把上述方程组写成矩阵形式,可以表示为 V =U G ,其中V 为码字构成的矢量,即V =(v 7,v 6,v 5,v 4,v 3,v 2,v 1,v 0),U 为信息位构成的矢量,即U =( u 3,u 2,u 1,u 0),观察方程组可得系统生成矩阵为:[]44*41000110101001011G I |P 0010011100011110⎡⎤⎢⎥⎢⎥==⎢⎥⎢⎥⎣⎦由系统生成矩阵和校验矩阵的关系可得:4*441101100010110100H P |I 0111001011100001T ⎡⎤⎢⎥⎢⎥⎡⎤==⎣⎦⎢⎥⎢⎥⎣⎦由校验矩阵可以看出,矩阵H 的任意三列都是线性无关的(任意三列之和不为0),但存在四列线性相关的情况(如第1、5、6、8列,这四列之和为0),即校验矩阵H 中最小的线性相关的列数为4,从而得该线性分组码的最小码距为4。
《信息论与编码》-曹雪虹-课后习题答案第二章2.1一个马尔可夫信源有3个符号{}1,23,u u u ,转移概率为:()11|1/2p u u =,()21|1/2p u u =,()31|0p u u =,()12|1/3p u u =,()22|0p u u =,()32|2/3p u u =,()13|1/3p u u =,()23|2/3p u u =,()33|0p u u =,画出状态图并求出各符号稳态概率。
解:状态图如下状态转移矩阵为:1/21/201/302/31/32/30p ⎛⎫ ⎪= ⎪ ⎪⎝⎭设状态u 1,u 2,u 3稳定后的概率分别为W 1,W 2、W 3由1231WP W W W W =⎧⎨++=⎩得1231132231231112331223231W W W W W W W W W W W W ⎧++=⎪⎪⎪+=⎪⎨⎪=⎪⎪⎪++=⎩计算可得1231025925625W W W ⎧=⎪⎪⎪=⎨⎪⎪=⎪⎩2.2 由符号集{0,1}组成的二阶马尔可夫链,其转移概率为:(0|00)p =0.8,(0|11)p =0.2,(1|00)p =0.2,(1|11)p =0.8,(0|01)p =0.5,(0|10)p =0.5,(1|01)p =0.5,(1|10)p =0.5。
画出状态图,并计算各状态的稳态概率。
解:(0|00)(00|00)0.8p p == (0|01)(10|01)0.5p p ==(0|11)(10|11)0.2p p == (0|10)(00|10)0.5p p == (1|00)(01|00)0.2p p == (1|01)(11|01)0.5p p ==(1|11)(11|11)0.8p p == (1|10)(01|10)0.5p p ==于是可以列出转移概率矩阵:0.80.200000.50.50.50.500000.20.8p ⎛⎫ ⎪⎪= ⎪ ⎪⎝⎭状态图为:设各状态00,01,10,11的稳态分布概率为W 1,W 2,W 3,W 4 有411i i WP W W ==⎧⎪⎨=⎪⎩∑ 得 13113224324412340.80.50.20.50.50.20.50.81W W W W W W W W W W W W W W W W +=⎧⎪+=⎪⎪+=⎨⎪+=⎪+++=⎪⎩ 计算得到12345141717514W W W W ⎧=⎪⎪⎪=⎪⎨⎪=⎪⎪⎪=⎩2.3 同时掷出两个正常的骰子,也就是各面呈现的概率都为1/6,求:(1) “3和5同时出现”这事件的自信息; (2) “两个1同时出现”这事件的自信息;(3) 两个点数的各种组合(无序)对的熵和平均信息量; (4) 两个点数之和(即2, 3, … , 12构成的子集)的熵; (5) 两个点数中至少有一个是1的自信息量。