信息论与编码习题参考答案(全)
- 格式:doc
- 大小:890.50 KB
- 文档页数:46
《信息论与编码》-曹雪虹-课后习题答案 第二章2.1一个马尔可夫信源有3个符号{}1,23,u u u ,转移概率为:()11|1/2p u u =,()21|1/2p uu =,()31|0p u u =,()12|1/3p u u =,()22|0p u u =,()32|2/3p u u =,()13|1/3p u u =,()23|2/3p u u =,()33|0p u u =,画出状态图并求出各符号稳态概率。
解:状态图如下状态转移矩阵为:1/21/201/302/31/32/30p ⎛⎫ ⎪= ⎪ ⎪⎝⎭设状态u 1,u 2,u 3稳定后的概率分别为W 1,W 2、W 3由1231WP W W W W =⎧⎨++=⎩得1231132231231112331223231W W W W W W W W W W W W ⎧++=⎪⎪⎪+=⎪⎨⎪=⎪⎪⎪++=⎩计算可得1231025925625W W W ⎧=⎪⎪⎪=⎨⎪⎪=⎪⎩2.2 由符号集{0,1}组成的二阶马尔可夫链,其转移概率为:(0|00)p =0.8,(0|11)p =0.2,(1|00)p =0.2,(1|11)p =0.8,(0|01)p =0.5,(0|10)p =0.5,(1|01)p =0.5,(1|10)p =0.5。
画出状态图,并计算各状态的稳态概率。
解:(0|00)(00|00)0.8p p == (0|01)(10|01)0.5p p ==(0|11)(10|11)0.2p p == (0|10)(00|10)0.5p p == (1|00)(01|00)0.2p p == (1|01)(11|01)0.5p p == (1|11)(11|11)0.8p p == (1|10)(01|10)0.5p p ==于是可以列出转移概率矩阵:0.80.200000.50.50.50.500000.20.8p ⎛⎫ ⎪⎪= ⎪ ⎪⎝⎭状态图为:设各状态00,01,10,11的稳态分布概率为W 1,W 2,W 3,W 4 有411i i WP W W ==⎧⎪⎨=⎪⎩∑ 得 13113224324412340.80.50.20.50.50.20.50.81W W W W W W W W W W W W W W W W +=⎧⎪+=⎪⎪+=⎨⎪+=⎪+++=⎪⎩ 计算得到12345141717514W W W W ⎧=⎪⎪⎪=⎪⎨⎪=⎪⎪⎪=⎩2.3 同时掷出两个正常的骰子,也就是各面呈现的概率都为1/6,求:(1) “3和5同时出现”这事件的自信息; (2) “两个1同时出现”这事件的自信息; (3) 两个点数的各种组合(无序)对的熵和平均信息量;(4) 两个点数之和(即2, 3, … , 12构成的子集)的熵;(5) 两个点数中至少有一个是1的自信息量。
2.1一个马尔可夫信源有3个符号{}1,23,u u u ,转移概率为:()11|1/2p u u =,()21|1/2p u u =,()31|0p u u =,()12|1/3p u u =,()22|0p u u =,()32|2/3p u u =,()13|1/3p u u =,()23|2/3p u u =,()33|0p u u =,画出状态图并求出各符号稳态概率。
解:状态图如下状态转移矩阵为:1/21/201/302/31/32/30p ⎛⎫ ⎪= ⎪ ⎪⎝⎭设状态u 1,u 2,u 3稳定后的概率分别为W 1,W 2、W 3由1231WP W W W W =⎧⎨++=⎩得1231132231231112331223231W W W W W W W W W W W W ⎧++=⎪⎪⎪+=⎪⎨⎪=⎪⎪⎪++=⎩计算可得1231025925625W W W ⎧=⎪⎪⎪=⎨⎪⎪=⎪⎩2.2 由符号集{0,1}组成的二阶马尔可夫链,其转移概率为:(0|00)p =0.8,(0|11)p =0.2,(1|00)p =0.2,(1|11)p =0.8,(0|01)p =0.5,(0|10)p =0.5,(1|01)p =0.5,(1|10)p =0.5。
画出状态图,并计算各状态的稳态概率。
解:(0|00)(00|00)0.8p p == (0|01)(10|01)p p == (0|11)(10|11)0.2p p == (0|10)(00|10)p p == (1|00)(01|00)0.2p p == (1|01)(11|01)p p==(1|11)(11|11)0.8p p == (1|10)(01|10)0.5p p ==于是可以列出转移概率矩阵:0.80.200000.50.50.50.500000.20.8p ⎛⎫ ⎪⎪= ⎪ ⎪⎝⎭状态图为:设各状态00,01,10,11的稳态分布概率为W 1,W 2,W 3,W 4 有411i i WP W W ==⎧⎪⎨=⎪⎩∑ 得 13113224324412340.80.50.20.50.50.20.50.81W W W W W W W W W W W W W W W W +=⎧⎪+=⎪⎪+=⎨⎪+=⎪+++=⎪⎩ 计算得到12345141717514W W W W ⎧=⎪⎪⎪=⎪⎨⎪=⎪⎪⎪=⎩2.7 设有一离散无记忆信源,其概率空间为123401233/81/41/41/8X x x x x P ====⎛⎫⎛⎫=⎪ ⎪⎝⎭⎝⎭(1)求每个符号的自信息量(2)信源发出一消息符号序列为{202 120 130 213 001 203 210 110 321 010 021 032 011 223 210},求该序列的自信息量和平均每个符号携带的信息量 解:122118()log log 1.415()3I x bit p x === 同理可以求得233()2,()2,()3I x bit I x bit I x bit ===因为信源无记忆,所以此消息序列的信息量就等于该序列中各个符号的信息量之和 就有:123414()13()12()6()87.81I I x I x I x I x bit =+++= 平均每个符号携带的信息量为87.811.9545=bit/符号2.11 有一个可以旋转的圆盘,盘面上被均匀的分成38份,用1,…,38的数字标示,其中有两份涂绿色,18份涂红色,18份涂黑色,圆盘停转后,盘面上的指针指向某一数字和颜色。
1、平均自信息为表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。
平均互信息表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。
2、最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。
3、最大熵值为。
4、通信系统模型如下:5、香农公式为为保证足够大的信道容量,可采用(1)用频带换信噪比;(2)用信噪比换频带。
6、只要,当N足够长时,一定存在一种无失真编码。
7、当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。
8、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。
9、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。
按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。
按照信息的地位,可以把信息分成客观信息和主观信息。
人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。
信息的可度量性是建立信息论的基础。
统计度量是信息度量最常用的方法。
熵是香农信息论最基本最重要的概念。
事物的不确定度是用时间统计发生概率的对数来描述的。
10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。
11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值。
12、自信息量的单位一般有 比特、奈特和哈特 。
13、必然事件的自信息是 0 。
14、不可能事件的自信息量是 ∞ 。
15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。
16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。
17、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 。
18、离散平稳有记忆信源的极限熵,=∞H )/(lim 121-∞→N N N X X X X H 。
1.按发出符号之间的关系来分,信源可以分为(有记忆信源)和(无记忆信源)2.连续信源的熵是(无穷大),不再具有熵的物理含义。
3.对于有记忆离散序列信源,需引入(条件熵)描述信源发出的符号序列内各个符号之间的统计关联特性3.连续信源X,平均功率被限定为P时,符合(正态)分布才具有最大熵,最大熵是(1/2ln(2 ⅇ 2))。
4.数据处理过程中信息具有(不增性)。
5.信源冗余度产生的原因包括(信源符号之间的相关性)和(信源符号分布的不均匀性)。
6.单符号连续信道的信道容量取决于(信噪比)。
7.香农信息极限的含义是(当带宽不受限制时,传送1bit信息,信噪比最低只需-1.6ch3)。
8.对于无失真信源编码,平均码长越小,说明压缩效率(越高)。
9.对于限失真信源编码,保证D的前提下,尽量减少(R(D))。
10.立即码指的是(接收端收到一个完整的码字后可立即译码)。
11.算术编码是(非)分组码。
12.游程编码是(无)失真信源编码。
13.线性分组码的(校验矩阵)就是该码空间的对偶空间的生成矩阵。
14.若(n,k)线性分组码为MDC码,那么它的最小码距为(n-k+1)。
15.完备码的特点是(围绕2k个码字、汉明矩d=[(d min-1)/2]的球都是不相交的每一个接受吗字都落在这些球中之一,因此接收码离发码的距离至多为t,这时所有重量≤t的差错图案都能用最佳译码器得到纠正,而所有重量≤t+1的差错图案都不能纠正)。
16.卷积码的自由距离决定了其(检错和纠错能力)。
(对)1、信息是指各个事物运动的状态及状态变化的方式。
(对)2、信息就是信息,既不是物质也不是能量。
(错)3、马尔可夫信源是离散无记忆信源。
(错)4、不可约的马尔可夫链一定是遍历的。
(对)5、单符号连续信源的绝对熵为无穷大。
(错)6、序列信源的极限熵是这样定义的:H(X)=H(XL|X1,X2,…,XL-1)。
(对)7、平均互信息量I(X;Y)是接收端所获取的关于发送端信源X的信息量。
第二章 信息量和熵2.2八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它的信息速率.解:同步信息均相同,不含信息,因此 每个码字的信息量为 2⨯8log =2⨯3=6 bit因此,信息速率为 6⨯1000=6000 bit/s2。
3 掷一对无偏骰子,告诉你得到的总的点数为:(a ) 7; (b) 12。
问各得到多少信息量.解:(1) 可能的组合为 {1,6},{2,5},{3,4},{4,3},{5,2},{6,1})(a p =366=61得到的信息量 =)(1loga p =6log =2。
585 bit (2) 可能的唯一,为 {6,6})(b p =361得到的信息量=)(1logb p =36log =5。
17 bit2.4 经过充分洗牌后的一副扑克(52张),问:(a) 任何一种特定的排列所给出的信息量是多少?(b) 若从中抽取13张牌,所给出的点数都不相同时得到多少信息量?解:(a ) )(a p =!521信息量=)(1loga p =!52log =225.58 bit (b) ⎩⎨⎧⋯⋯⋯⋯花色任选种点数任意排列13413!13)(b p =1352134!13A ⨯=1352134C 信息量=1313524log log -C =13。
208 bit2.9随机掷3颗骰子,X 表示第一颗骰子的结果,Y 表示第一和第二颗骰子的点数之和,Z 表示3颗骰子的点数之和,试求)|(Y Z H 、)|(Y X H 、),|(Y X Z H 、)|,(Y Z X H 、)|(X Z H 。
解:令第一第二第三颗骰子的结果分别为321,,x x x ,1x ,2x ,3x 相互独立,则1x X =,21x x Y +=,321x x x Z ++=)|(Y Z H =)(3x H =log 6=2.585 bit )|(X Z H =)(32x x H +=)(Y H=2⨯(361log 36+362log 18+363log 12+364log 9+365log 536)+366log 6 =3。
2.1 试问四进制、八进制脉冲所含信息量是二进制脉冲的多少倍?解:四进制脉冲可以表示4 个不同的消息,例如:{0, 1, 2, 3} 八进制脉冲可以表示8 个不同的消息,例如:{0, 1, 2, 3, 4, 5, 6, 7} 二进制脉冲可以表示2 个不同的消息,例如:{0, 1} 假设每个消息的发出都是等概率的,则:四进制脉冲的平均信息量H ( X1 ) = log n = log 4 = 2 bit / symbol八进制脉冲的平均信息量H ( X 2 ) = log n = log8 = 3 bit / symbol二进制脉冲的平均信息量H ( X 0 ) = log n = log 2 = 1 bit / symbol所以:四进制、八进制脉冲所含信息量分别是二进制脉冲信息量的2 倍和3 倍。
2.2 居住某地区的女孩子有25%是大学生,在女大学生中有75%是身高 160 厘米以上的,而女孩子中身高160 厘米以上的占总数的一半。
假如我们得知“身高160 厘米以上的某女孩是大学生”的消息,问获得多少信息量?解:设随机变量X 代表女孩子学历X x1(是大学生)x2(不是大学生)P(X)0.250.75设随机变量Y 代表女孩子身高Y y1(身高>160cm)y2(身高<160cm)P(Y)0.50.5已知:在女大学生中有75%是身高160 厘米以上的即:p( y1 / x1 ) = 0.75 bit求:身高160 厘米以上的某女孩是大学生的信息量即:I ( x/ y ) = −log p( x/ y ) = −log p( x1) p( y1/ x1)= −log0.25 ×0.75= 1.415 bit1 1 1 1 p( y1)0.52.3 一副充分洗乱了的牌(含52 张牌),试问(1) 任一特定排列所给出的信息量是多少?(2) 若从中抽取13 张牌,所给出的点数都不相同能得到多少信息量?解:(1) 52 张牌共有52!种排列方式,假设每种排列方式出现是等概率的则所给出的信息量是:p( xi) = 152!I ( xi ) = −log p( xi) = log 52!=225.581 bit(2) 52 张牌共有4 种花色、13 种点数,抽取13 张点数不同的牌的概率如下:·1 ·· 2 ·C C 13 3 1 6p ( x i ) = 41313 52413I ( x i ) = − log p ( x i ) = − log = 13.208 bit52⎡ X ⎤ ⎧x = 0 x = 1 x = 2 x = 3⎫ 2.4 设离散无记忆信源 ⎢ ⎥= ⎨ 1 2 3 4⎬ ,其发出的信息为 ⎣P ( X )⎦ ⎩ 3 / 8 1/ 4 1/ 41/ 8 ⎭(202120130213001203210110321010021032011223210),求 (1) 此消息的自信息量是多少?(2) 此消息中平均每符号携带的信息量是多少?解:(1) 此消息总共有 14 个 0、13 个 1、12 个 2、6 个 3,因此此消息发出的概率是:14 25⎛⎞ ⎛ ⎞⎛ 1 ⎞ p = ⎜ ⎟ × ⎜⎟ × ⎜ ⎟⎝ 8 ⎠ ⎝ 4 ⎠ ⎝ 8 ⎠此消息的信息量是: I = − log p = 87.811 bit(2) 此消息中平均每符号携带的信息量是: I / n = 87.811/ 45 = 1.951 bit2.5 从大量统计资料知道,男性中红绿色盲的发病率为 7%,女性发病率为 0.5%,如果你问一 位男士:“你是否是色盲?”他的回答可能是“是”,可能是“否”,问这两个回答中各含多少 信息量,平均每个回答中含有多少信息量?如果问一位女士,则答案中含有的平均自信息量 是多少?解: 男士:p ( x Y ) = 7%I ( x Y ) = − log p ( x Y ) = − log 0.07 = 3.837 p ( x N ) = 93%bit I ( x N ) = − log p ( x N ) = − log 0.93 = 0.105 bit 2H ( X ) = −∑ p ( x i) l og p ( x i) = −(0.07 l og 0.07 + 0.93log 0.93) = 0.366 bit / symboli女士:2H ( X ) = −∑ p ( x i) log p ( x i) = −(0.005 l og 0.005 + 0.995 l og 0.995) = 0.045 bit / symboli⎡ X ⎤ ⎧ x x x x x x ⎫ 2.6 设信源 ⎢ ⎥= ⎨ 1 2 3 4 5 6 ⎬ ,求这个信源的熵,并解释为什么 ⎣P ( X )⎦ ⎩0.2 0.19 0.18 0.17 0.16 0.17⎭H(X) > log6 不满足信源熵的极值性。
信息论与编码习题参考答案 第一章 单符号离散信源1.1同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。
解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:(3)信源空间:bit x H 32.436log 3662log 3615)(=⨯⨯+⨯⨯=∴ (4)信源空间: bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格。
(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。
解:bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率bitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知 bitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。
问这两个回答中各含有多少信息量?平均每个回答中各含有多少信息量?如果你问一位女士,则她的答案中含有多少平均信息量? 解:bit w P w P w P w P m m P m I w P w I bit m P m P m P m P m bit m P m I bit m P m I n n y y n n y y n n y y n n y y 0454.0log99.5%99.5%-log0.5%-0.5% )(log )()(log )()(H %5.99log )(log )(%5.0log )(log )(366.0log93%93%-log7%-7% )(log )()(log )()(H 105.0%93log )(log )(84.3%7log )(log )(:=⨯⨯=⨯-⨯-=-=-=-=-==⨯⨯=⨯-⨯-==-=-==-=-=平均每个回答信息量::回答“不是”的信息量回答“是”的信息量:对于女:平均每个回答信息量::回答“不是”的信息量回答“是”的信息量:对于男士1.4某一无记忆信源的符号集为{0,1},已知。
,323110==p p (1) 求符号的平均信息量;(2) 由1000个符号构成的序列,求某一特定序列(例如有m 个“0”,(1000-m )个“1”)的自信量的表达式;(3) 计算(2)中序列的熵。
解:32log 3)1000(231log 3log log )( ce bit/sequen 918918.01000)(1000)(3 32log )1000(31log log )1000(log )(2/ 918.032log 3231log 31log log )(1100011110001100∑∑-==---=--==⨯==---=---==⨯-⨯-=--=mi mi m m p p p p A H X H A H bit m m p m p m A I symblebit p p p p x H )()()(1.5设信源X 的信源空间为:⎩⎨⎧• 0.3 0.18 0.16 0.18 0.19 0.17 X)( a a a a a a X ][654321p p x :: 求信源熵,并解释为什么H(X)>log6,不满足信源熵的极值性。
解:。
立的约束条件,所以不满足信源熵最大值成但是本题中的约束条件下求得的,值是在这是因为信源熵的最大,不满足信源熵的极值性可见log6H(X)18.1 1585.2log62.725H(X) bit/symble 725.2 3.0log 3.016.0log 16.018.0log 18.0219.0log 19.017.0log 17.0 )(log )()(61161>===>==--⨯---=-=∑∑∑===i iri i i i i pp a p a p X H1.6为了使电视图象获得良好的清晰度和规定的对比度,需要用5×105个像素和10个不同的亮度电平,并设每秒要传送30帧图象,所有的像素是独立的,且所有亮度电平等概出现。
求传输此图象所需要的信息率(bit/s )。
解:bit/s 104.98310661.130)/)(()/(R bit/frame10661.1322.3105)(H 105)(H bit/pels322.310log )(log )()(H 7665051010⨯=⨯⨯=⨯=∴⨯=⨯⨯=⨯⨯====∑=frame bit X H s frame r x X a p a p x i i i 所需信息速率为:每帧图像的熵是:每个像素的熵是:,由熵的极值性:由于亮度电平等概出现1.7设某彩电系统,除了满足对于黑白电视系统的上述要求外,还必须有30个不同的色彩度。
试证明传输这种彩电系统的信息率要比黑白系统的信息率大2.5倍左右。
证:.5.2,,5.25.2477.210log 300log )(H )(H pels/bit 300log )(log )()(H bit 3001030,10,,300130011倍左右比黑白电视系统高彩色电视系统信息率要图形所以传输相同的倍作用大信息量比黑白电视系统彩色电视系统每个像素每个像素的熵是:量化所以每个像素需要用个亮度每个色彩度需要求下在满足黑白电视系统要个不同色彩度增加∴≈====∴=⨯∑=x x b p b p x i i i1.8每帧电视图像可以认为是由3×105个像素组成,所以像素均是独立变化,且每像素又取128个不同的亮度电平,并设亮度电平是等概出现。
问每帧图像含有多少信息量?若现在有一个广播员,在约10000个汉字中选1000个字来口述这一电视图像,试问若要恰当地描述此图像,广播员在口述中至少需要多少汉字? 解:个汉字最少需要数描述一帧图像需要汉字每个汉字所包含信息量每个汉字所出现概率每帧图象所含信息量55665510322.6/10322.61.0log 101.2)()()()(,log H(c):1.010*******symble/bit 101.2128log 103)(103)(:⨯∴⨯=-⨯=≥≤-=∴==⨯=⨯⨯=⨯⨯=framec H X H n c nH X H n p p x H X H1.9给定一个概率分布),...,,(21n p p p 和一个整数m ,n m ≤≤0。
定义∑=-=mi im pq 11,证明:)log(),,...,,(),...,,(2121m n q q p p p H p p p H m m m n -+≤。
并说明等式何时成立?证:∑∑+==--=>-=<-=''-=''∴>-=''-=''>-=nm i iimi i i n pp p p p p p H x x x x f x ex x x f x xex x x f x x x x f 1121log log ),...,,()0(log )( 0log )log ()(0 log )log ()()0(log )( 又为凸函数。
即又为凸函数,如下:先证明时等式成立。
当且仅当时等式成立。
当且仅当即可得:的算术平均值的函数,函数的平均值小于变量由凸函数的性质,变量n m m m m m n mm m i i i m m m m m mi i i nm i iimi i i n n m m m m m nm i iimm nm i inm i inm i inm i inm i i i p p p m n q q p p p H p p p H q q p p q p p p H m n q q q p p pp p p p p p H p p p m n q q q pp mn q q mn pmn pm n mn pf m n mn p f m n p p ===-+≤--=-+--≤--=∴===-+-≤---=----=---≤---=-++==+==+++=+=+=+=+=+=∑∑∑∑∑∑∑∑∑∑...)log(),,...,,(),...,,(log log ),,...,,()log(log log log log ),...,,(...)log(log log loglog)()()()()(log 21212112111121211111111.10找出两种特殊分布:p 1≥p 2≥p 3≥…≥p n ,p 1≥p 2≥p 3≥…≥p m ,使H(p 1,p 2,p 3,…,p n )=H(p 1,p 2,p 3,…,p m )。
解:∑∑==-==-=mi i i m ni i i n q q q q q H p p p p p H 121121log ),...,,(log ),...,,(1.15两个离散随机变量X 和Y ,其和为Z =X +Y ,若X 和Y 统计独立,求证: (1) H(X)≤H(Z), H(Y)≤H(Z) (2) H(XY)≥H(Z) 证明:∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑=================≥+-≥+-+-=≥+⋅-≥-=⋅⋅-≤++-≤-=∴⎩⎨⎧•⎩⎨⎧•sj j j ri sj j i j ri sj j i j r s j j i i s sj j i ss j j i t k k k rsj j i j i rsj j i j i tk k k s s r r q q q p q q p q q p p q p q p pz pz Z H XY H q p q p b a p b a p pz pz Z H Y X q q q Y P b b b P p p p X P a a a P 111111i 11i 11i 111i 11i 1121212121)log(-)log( )log())log(( )log()(log )()()log()( )(log )(log )(, ...)( ... Y :][Y ... )( (X):][X Y X =又统计独立又的信源空间为:、设第二章 单符号离散信道2.1设信源 .30.70 )( X:][X 21⎩⎨⎧•X P a a P 通过一信道,信道的输出随机变量Y 的符号集 },{:21b b Y ,信道的矩阵:⎥⎦⎤⎢⎣⎡=4/34/16/16/5][ 2121a a P b b试求:(1) 信源X 中的符号1和2分别含有的自信息量;(2) 收到消息Y =b 1,Y =b 2后,获得关于1、2的互交信息量:I(1;b 1)、I(1;b 2)、I(2;b 1)、I(2;b 2); (3) 信源X 和信宿Y 的信息熵;(4) 信道疑义度H(X/Y)和噪声熵H(Y/X);(5) 接收到消息Y 后获得的平均互交信息量I(X;Y)。