当前位置:文档之家› 王育民信息论与编码理论第四章答案2

王育民信息论与编码理论第四章答案2

4.5若将N 个相同的BSC 级联如题图4.5所示,各信道的转移概率矩阵为⎥⎦⎤⎢⎣⎡--p p p p 11。令Q t =P{X t =0},t=0,1,…,N,且Q 0为已知。

题图 4.5

(a)求Q t 的表达式。

(b)证明N →∞时有Q N →1/2,且与Q 0取值无关,从而证明N →∞级联信道的信道容量C N →0,P>0。

解:

(a)对于满足X N 为马氏链的串联信道,他们总的信道转移概率矩阵为各个串联信道矩阵的乘积,即P(X N |X 0)= P(X 1|X 0) P(X 2|X 1)……P(X N |X N-1)

由已知得,但各信道的转移概率矩阵为⎥⎦

⎤⎢

⎣⎡--p p p p 11 则两个信道级联的转移概率矩阵为: P 2=⎥⎦⎤⎢⎣⎡--p p p p 11⎥⎦⎤⎢⎣

⎡--p p p p 11=()()()()⎥⎦⎤⎢⎣⎡-+---+2222112p 12p 1p p p p p p 三个信道级联的转移概率矩阵为: P 3=()()()()⎥⎥⎥⎦

⎤⎢⎢⎢⎣⎡-+----+33331221211221211221211-2p 2121p p p 四个信道级联的转移概率矩阵为: P 4=()()()()⎥⎥⎥⎦

⎤⎢⎢⎢⎣⎡-+----+44441221211221211221211-2p 2121p p p 以此类推:可得N 个信道级联的转移概率矩阵为:

P N =()()()()⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡-+----+N N N N p p p 122121122

1211221211-2p 2121 则

Q t =P{X t =0}=()()()()()000121221211122121122121Q p p Q p Q p t t t t -+--=-⎥⎦

⎤⎢⎣⎡--+⎥⎦⎤⎢⎣⎡-+

即Q t 的表达式为:Q t =

()()012122121Q p p t t -+-- t=0,1,……,N (b) 由(a)可得到:

Q N =()()012122

121Q p p t t -+-- 由0

1lim =∞→N N Q ,与Q 0取值无关。 由于N 个信道级联的转移概率矩阵可知,其为对称信道,

则信道容量:

C N =()(

)∑-=+10j |J log k |j p log J k j p

=log2+[1/2+1/2(2p-1)N ]log[1/2+1/2(2p-1)N ]+ [1/2-1/2(2p-1)N ]log[1/2-1/2(2p-1)N ] 当N →∞时,(2p-1)

N →0,则C N =log2-1/2log2-1/2log2=0。

信息论与编码理论习题答案

信息论与编码理论习题 答案 LG GROUP system office room 【LGA16H-LGYY-LGUA8Q8-LGA162】

第二章 信息量和熵 八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它的信息速 率。 解:同步信息均相同,不含信息,因此 每个码字的信息量为 2?8log =2?3=6 bit 因此,信息速率为 6?1000=6000 bit/s 掷一对无偏骰子,告诉你得到的总的点数为:(a) 7; (b) 12。问各得到多少信息 量。 解:(1) 可能的组合为 {1,6},{2,5},{3,4},{4,3},{5,2},{6,1} )(a p =366=6 1 得到的信息量 =) (1 log a p =6log = bit (2) 可能的唯一,为 {6,6} )(b p =361 得到的信息量=) (1 log b p =36log = bit 经过充分洗牌后的一副扑克(52张),问: (a) 任何一种特定的排列所给出的信息量是多少? (b) 若从中抽取13张牌,所给出的点数都不相同时得到多少信息量? 解:(a) )(a p =! 521 信息量=) (1 log a p =!52log = bit (b) ? ??????花色任选种点数任意排列 13413!13 )(b p =13 52134!13A ?=1352 13 4C 信息量=1313 52 4log log -C = bit 随机掷3颗骰子,X 表示第一颗骰子的结果,Y 表示第一和第二颗骰子的点数之和, Z 表示3颗骰子的点数之和,试求)|(Y Z H 、)|(Y X H 、),|(Y X Z H 、 )|,(Y Z X H 、)|(X Z H 。

信息论和编码理论第二章习题集答案解析(王育民)

部分答案,仅供参考。 2.1信息速率是指平均每秒传输的信息量 点和划出现的信息量分别为3log ,2 3log , 一秒钟点和划出现的次数平均为 4 15314.0322.01= ?+? 一秒钟点和划分别出现的次数平均为4 5.410 那么根据两者出现的次数,可以计算一秒钟其信息量平均为2 53log 4 153log 4 52 3log 4 10-=+ 2.3 解: (a)骰子A 和B ,掷出7点有以下6种可能: A=1,B=6; A=2,B=5; A=3,B=4; A=4,B=3; A=5,B=2; A=6,B=1 概率为6/36=1/6,所以信息量 -log(1/6)=1+log3≈2.58 bit (b) 骰子A 和B ,掷出12点只有1种可能: A=6,B=6 概率为1/36,所以信息量 -log(1/36)=2+log9≈5.17 bit 2.5解: 出现各点数的概率和信息量: 1点:1/21,log21≈4.39 bit ; 2点:2/21,log21-1≈3.39 bit ; 3点:1/7,log7≈2.81bit ; 4点:4/21,log21-2≈2.39bit ; 5点:5/21,log (21/5)≈2.07bit ; 6点:2/7,log(7/2)≈1.81bit

平均信息量: (1/21)×4.39+(2/21)×3.39+(1/7)×2.81+(4/21)×2.39+(5/21)×2.07+(2/7)×1.81≈2.4bit 2.7解: X=1:考生被录取; X=0:考生未被录取; Y=1:考生来自本市;Y=0:考生来自外地; Z=1: 考生学过英语;Z=0:考生未学过英语 P(X=1)=1/4, P(X=0)=3/4; P(Y=1/ X=1)=1/2; P(Y=1/ X=0)=1/10; P(Z=1/ Y=1)=1, P(Z=1 / X=0, Y=0)=0.4, P(Z=1/ X=1, Y=0)=0.4, P(Z=1/Y=0)=0.4 (a) P(X=0,Y=1)=P(Y=1/X=0)P(X=0)=0.075, P(X=1,Y=1)= P(Y=1/X=1)P(X=1)=0.125 P(Y=1)= P(X=0,Y=1)+ P(X=1,Y=1)=0.2 P(X=0/Y=1)=P(X=0,Y=1)/P(Y=1)=0.375, P(X=1/Y=1)=P(X=1,Y=1)/P(Y=1)=0.625 I (X ;Y=1)=∑∑=====x x ) P() 1Y /(P log )1Y /(P )1Y (I )1Y /(P x x x x;x =1) P(X ) 1Y /1X (P log )1Y /1X (P 0)P(X )1Y /0X (P log )1Y /0X (P =====+===== =0.375log(0.375/0.75)+0.625log(0.625/0.25)=(5/8)log5-1≈0.45bit (b) 由于P(Z=1/ Y=1)=1, 所以 P (Y=1,Z=1/X=1)= P (Y=1/X=1)=0.5 P (Y=1,Z=1/X=0)= P (Y=1/X=0)=0.1 那么P (Z=1/X=1)= P (Z=1,Y=1/X=1)+ P (Z=1,Y=0/X=1)=0.5+ P (Z=1/Y=0,X=1)P (Y=0/X=1)=0.5+0.5*0.4=0.7 P(Z=1/X=0)= P (Z=1,Y=1/X=0)+ P (Z=1,Y=0/X=0)=0.1+P(Z=1/Y=0,X=0)P(Y=0/X=0)=0.1+0.9*0.4=0.46 P (Z=1,X=1)= P (Z=1/X=1)*P(X=1)=0.7*0.25=0.175

《信息论与编码理论》(王育民李晖梁传甲)课后习题问题详解高等教育出版社

信息论与编码理论习题解 第二章-信息量和熵 2.1解: 平均每个符号长为:15 4 4.03 12.03 2= ?+?秒 每个符号的熵为9183.03log 3123log 3 2=?+?比特/符号 所以信息速率为444.34 15 9183.0=?比特/秒 2.2 解: 同步信号均相同不含信息,其余认为等概, 每个码字的信息量为 3*2=6 比特; 所以信息速率为600010006=?比特/秒 2.3 解:(a)一对骰子总点数为7的概率是 36 6 所以得到的信息量为 585.2)36 6(log 2= 比特 (b) 一对骰子总点数为12的概率是36 1 所以得到的信息量为 17.536 1 log 2 = 比特 2.4 解: (a)任一特定排列的概率为 ! 521 ,所以给出的信息量为 58.225! 521 log 2 =- 比特 (b) 从中任取13张牌,所给出的点数都不相同的概率为 1352 13 13521344!13C A =? 所以得到的信息量为 21.134 log 1313 52 2=C 比特. 2.5 解:易证每次出现i 点的概率为 21 i ,所以

比特比特比特比特比特比特比特398.221 log 21)(807.1)6(070.2)5(392.2)4(807.2)3(392.3)2(392.4)1(6,5,4,3,2,1,21 log )(26 12=-==============-==∑ =i i X H x I x I x I x I x I x I i i i x I i 2.6 解: 可能有的排列总数为 27720! 5!4!3! 12= 没有两棵梧桐树相邻的排列数可如下图求得, Y X Y X Y X Y X Y X Y X Y X Y 图中X 表示白杨或白桦,它有???? ??37种排法,Y 表示梧桐树可以栽 种的位置,它有???? ??58种排法,所以共有???? ??58*???? ??37=1960种排法保证没有 两棵梧桐树相邻,因此若告诉你没有两棵梧桐树相邻时,得到关于树排列的信息为1960log 27720log 22-=3.822 比特 2.7 解: X=0表示未录取,X=1表示录取; Y=0表示本市,Y=1表示外地; Z=0表示学过英语,Z=1表示未学过英语,由此得

信息论与编码理论课后答案

信息论与编码理论课后答案 【篇一:《信息论与编码》课后习题答案】 式、含义和效用三个方面的因素。 2、 1948年,美国数学家香农发表了题为“通信的数学理论”的长 篇论文,从而创立了信息论。 3、按照信息的性质,可以把信息分成语法信息、语义信息和语用 信息。 4、按照信息的地位,可以把信息分成客观信息和主观信息。 5、人们研究信息论的目的是为了高效、可靠、安全地交换和利用 各种各样的信息。 6、信息的是建立信息论的基础。 7、 8、是香农信息论最基本最重要的概念。 9、事物的不确定度是用时间统计发生概率的对数来描述的。 10、单符号离散信源一般用随机变量描述,而多符号离散信源一般 用随机矢量描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量, 定义为其发生概率对数的负值。 12、自信息量的单位一般有比特、奈特和哈特。 13、必然事件的自信息是。 14、不可能事件的自信息量是 15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。 16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。 17、离散平稳无记忆信源x的n次扩展信源的熵等于离散信源x的 熵的。 limh(xn/x1x2?xn?1)h?n???18、离散平稳有记忆信源的极限熵,。 19、对于n元m阶马尔可夫信源,其状态空间共有m个不同的状态。 20、一维连续随即变量x在[a,b] 。 1log22?ep 21、平均功率为p的高斯分布的连续信源,其信源熵,hc(x)=2。

22、对于限峰值功率的n维连续信源,当概率密度均匀分布时连续信源熵具有最大值。 23、对于限平均功率的一维连续信源,当概率密度 24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值p和信源的熵功率p 25、若一离散无记忆信源的信源熵h(x)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为。 27 28、同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和5同时出现”这件事的自信息量是 ?mn?ki?1 1?mp(x)?em29、若一维随即变量x的取值区间是[0,∞],其概率密度函数为,其中:x?0,m是x的数学 2期望,则x的信源熵c。 30、一副充分洗乱的扑克牌(52张),从中任意抽取1张,然后放回,若把这一过程看作离散无记忆信源,则其信 2源熵为。 31信道。 32、信道的输出仅与信道当前输入有关,而与过去输入无关的信道称为 33、具有一一对应关系的无噪信道的信道容量。 34、强对称信道的信道容量。 35、对称信道的信道容量。 36、对于离散无记忆信道和信源的n次扩展,其信道容量cn= 。xh(x)?logmelog52 37、对于n个对立并联信道,其信道容量 cn = 。 38、多用户信道的信道容量用多维空间的一个区域的界限来表示。 39、多用户信道可以分成几种最基本的类型:多址接入信道、广播信道和相关信源信道。 40、广播信道是只有一个输入端和多个输出端的信道。 41、当信道的噪声对输入的干扰作用表现为噪声和输入的线性叠加时,此信道称为加性连续信道。 ?ck?1nk p1log2(1?x)2pn。 42、高斯加性信道的信道容量c= 43、信道编码定理是一个理想编码的存在性定理,即:信道无失真传递信息的条件是信息率小于信道容量。 ?1/21/20??0?01??代表的信道的信道容量。 44、信道矩阵 ?10??10????01??代表的信道的信道容量。 45、信道矩阵?

信息论与编码_杭州电子科技大学中国大学mooc课后章节答案期末考试题库2023年

信息论与编码_杭州电子科技大学中国大学mooc课后章节答案期末考试题库2023年 1.【图片】该信道的信道容量是()bit/符号。 参考答案: log4-H(1/3,1/3,1/6,1/6); 2.对于离散无记忆平稳信源的N次扩展信源,其熵为扩展前信源熵的N倍。 参考答案: 正确 3.对应对称的DMC信道,当输入呈什么分布时,信道到达信道容量。 参考答案: 等概率分布 4.在X-Y-Z的信息传递中,信息不增性原理表示为I(X;Z)>=I(Y;Z)。 参考答案: 错误 5.信道容量随信源输出的概率分布的变化而变化。 参考答案: 错误 6.已知8个码组为(000000)、(001110)、(010101)、(011011)、 (100011)、(101101)、(110110)、(111000),若只用于检错,可检测出()位错码。

参考答案: 2 7.突发差错始终以相等的概率独立发生于各码字、各码元、各比特。 参考答案: 错误 8.(7,3)码的监督矩阵有3行,生成矩阵有4行。 参考答案: 错误 9.根据香农容量公式可知,通过增大带宽可以无限的提高信道容量,只是提高 的速度会变慢 参考答案: 错误 10.二进制对称信道中,当信道转移概率中正确、错误的概率相等时,此信道不 能传递信息。 参考答案: 正确 11.某信道输入熵为H(X),输出熵为H(Y),若信道为无噪有损信道,其容量为 H(X)。 参考答案: 正确

12.连续信源限峰值条件下正态分布具有最大熵。 参考答案: 错误 13.关于信息熵在通信系统中的描述,以下错误的是()。 参考答案: 条件熵H(X|Y)可以看作是信道上的干扰和噪声使接收端获得Y之后对X还有的平均不确定度,又称为噪声熵。 14.必然事件和不可能事件的自信息量都是0 。 参考答案: 错误 15.通常所说的符号差错概率(误码元率)是指信号差错概率,而误比特率是指 信息差错概率。 参考答案: 正确 16.当离散信源输出服从()分布时,其熵为最大 参考答案: 等概率分布 17.信源变长编码的核心问题是寻找紧致码(或最佳码),霍夫曼编码方法构造 的是最佳码。

信息论与编码习题解答

信息论与编码习题解答 第一章 1.一位朋友很不赞成“通信的目的是传送信息”及“消息中未知的成分才算是信息”这些说法。他举例说:我多遍地欣赏梅兰芳大师的同一段表演,百看不厌,大师正在唱的正在表演的使我愉快,将要唱的和表演的我都知道,照你们的说法电视里没给我任何信息,怎么能让我接受呢?请从信息论的角度对此做出解释。(主要从狭义信息论与广义信息论研究的内容去理解和解释) 答:从狭义信息论角度,虽然将要表演的内容观众已知,但是每一次演出不可能完全相同。而观众在欣赏的同时也在接受着新的感官和视听享受。从这一角度来说,观众还是可以得到新的信息的。另一种解释可以从广义信息论的角度来分析,它涉及了信息的社会性、实用性等主观因素,同时受知识水平、文化素质的影响。京剧朋友们在欣赏京剧时也因为主观因素而获得了享受,因此属于广义信息论的范畴。 2.利用下图(图1.2)所示的通信系统分别传送同样时间(例如十分钟)的重大新闻公告和轻音乐,它们在接收端各方框的输入中所含的信息是否相同,为什么? 图1.2 通信系统的一般框图 答:重大新闻是语言,频率为300~3400Hz,而轻音乐的频率为20~20000Hz。同样的时间内轻音乐的采样编码的数据要比语音的数据量大,按码元熵值,音乐的信息量要比新闻大。但是在信宿端,按信息的不确定度,信息量就应分别对待,对于新闻与音乐的信息量大小在广义上说,因人而异。

第二章 1.一珍珠养殖场收获240颗外观及重量完全相同的特大珍珠,但不幸被人用外观相同但重量仅有微小差异的假珠换掉1颗。(1)一人随手取出3颗,经测量恰好找出了假珠,问这一事件大约给出了多少比特的信息量;(2)不巧假珠又滑落进去,那人找了许久却未找到,但另一人说他用天平最多6次能找出,结果确是如此,问后一事件给出多少信息量;(3)对上述结果作出解释。 解:(1)从240颗珍珠中取3颗,其中恰好有1颗假珠的概率为: 2 2393240 239! 2!237!240!3!237! 11/80240/3 C P C ??= == = 所以,此事件给出的信息量为:I = – log 2P = log 280=6.32 (bit) (2)240颗中含1颗假珠,用天平等分法最多6次即可找到假珠,这是一个必然事件,因此信息量为0。 (3)按照Shannon 对信息量的定义,只在事件含有不确定成分,才有信息量,并且不确定成分越大,信息量也越大,必然事件则没有信息量。但是从广义信息论的角度,如果那个人不知道用天平二分法找假珠,另一个告诉他这个方法,使他由不知道到知道,也应该含有一定的信息量。 2.每帧电视图像可以认为是由3?105个象素组成,所有象素均独立变化,且每一象素又取128个不同的亮度电平,并设亮度电平等概率出现。问每帧图像含有多少信息量?如果一个广播员在约10000个汉字的字汇中选取1000个字来口述此电视图像,试问广播员描述此图像所广播的信息量是多少(假设汉字字汇是等概率分布,且彼此独立)?若要恰当地描述此图像,广播员在口述中至少需用多少汉字? 解:由于每一象素取128个不同的亮度电平,各个亮度电平等概率出现。因此每个亮度电平包含的信息量为 I (X ) = – lb(1/128)=lb128=7 bit/像素 每帧图像中像素均是独立变化的,因此每帧图像信源就是离散亮度电平信源的无记忆N 次扩展。由此,每帧图像包含的信息量为 I (X N ) = NI (X )= 3?105?7 =2.1?106 bit/帧 广播员在约10000个汉字中选取字汇来口述此电视图像,各个汉字等概分布,因此每个汉字包含的信息量为 I (Y) = – lb(1/10000)=lb1000=13.29 bit/字 广播员述电视图像是从这个汉字字汇信源中独立地选取1000个字进行描述,因此广播员描述此图像所广播的信息量是 I (Y N ) = NI (Y )= 1000?13.29 =1.329 ?104 bit/字 由于口述一个汉字所包含的信息量为I (Y),而一帧电视图像包含的信息量是I (X N ),因此广播员要恰当地描述此图像,需要的汉字数量为: 65() 2.110 1.5810() 13.29 N I X I Y ?= =?字 3.已知 X : 1, 0 P (X ): p , 1 – p (1)求证:H (X ) = H (p )

信息论与编码-曹雪虹-第四章-课后习题答案

4.2 某二元信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡2/12/110)(X P X 其失真矩阵为 ⎥⎦⎤⎢⎣⎡=a a D 00求这信源的D max 和D min 和R(D)函数。 解: 0021021),(min )(202121),()(min min min max =⨯+⨯===⨯+⨯===∑∑i j i j i i j i i j j y x d x p D a a y x d x p D D 因为二元等概信源率失真函数: ⎪⎭⎫ ⎝⎛-=a D H n D R ln )( 其中n = 2, 所以率失真函数为: ⎥⎦⎤⎢⎣⎡⎪⎭⎫ ⎝⎛-⎪⎭⎫ ⎝⎛-+-=a D a D a D a D D R 1ln 1ln 2ln )( 4.3 一个四元对称信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣ ⎡4/14/1324/14/110)(X P X ,接收符号Y = {0, 1, 2, 3},其失真矩阵为⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣ ⎡0111101111011110,求D max 和D min 及信源的R(D)函数,并画出其曲线(取4至5个点)。 解: 0041041041041),(min )(43041141141141),()(min min min max =⨯+⨯+⨯+⨯===⨯+⨯+⨯+⨯===∑∑i j i j i i j i i j j y x d x p D y x d x p D D 因为n 元等概信源率失真函数: ⎪⎭⎫ ⎝⎛-⎪⎭⎫ ⎝⎛-+-+=a D a D n a D a D n D R 1ln 11ln ln )( 其中a = 1, n = 4, 所以率失真函数为: ()()D D D D D R --++=1ln 13ln 4ln )( 函数曲线:

信息论与编码试题集与答案

1. 在无失真的信源中,信源输出由 H (X ) 来度量;在有失真的信源中,信源输出由 R (D ) 来度量。 2. 要使通信系统做到传输信息有效、可靠和保密,必须首先 信源 编码, 然后_____加密____编码,再______信道_____编码,最后送入信道。 3. 带限AWGN 波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公式是log(1)C W SNR =+;当归一化信道容量C/W 趋近于零时,也即信道完全丧失了通信能力,此时E b /N 0为 -1.6 dB ,我们将它称作香农限,是一切编码方式所能达到的理论极限。 4. 保密系统的密钥量越小,密钥熵H (K )就越 小 ,其密文中含有的关于明文的信息量I (M ;C )就越 大 。 5. 已知n =7的循环码42()1g x x x x =+++,则信息位长度k 为 3 ,校验多项式 h(x)= 3 1x x ++ 。 6. 设输入符号表为X ={0,1},输出符号表为Y ={0,1}。输入信号的概率分布为p =(1/2,1/2),失真函数为d (0,0) = d (1,1) = 0,d (0,1) =2,d (1,0) = 1,则D min = 0 ,R (D min )= 1bit/symbol ,相应的编码器转移概率矩阵[p(y/x )]=1001⎡⎤ ⎢⎥⎣⎦ ;D max = 0.5 ,R (D max )= 0 ,相应的编码器转移概率矩阵[p(y/x )]=1010⎡⎤ ⎢ ⎥⎣⎦ 。 7. 已知用户A 的RSA 公开密钥(e,n )=(3,55),5,11p q ==,则()φn = 40 ,他的秘密密钥(d,n )=(27,55) 。若用户B 向用户A 发送m =2的加密消息,则该加密后的消息为 8 。 四、计算题 1.已知(),X Y 的联合概率(),p x y 为: 求()H X ,()H Y ,(),H X Y ,();I X Y 解: (0)2/3p x == (1)1/3p x == (0)1/3p y == (1)2/3 p y == ()()(1/3,2/3)H X H Y H ===0.918 bit/symbol (),(1/3,1/3,1/3)H X Y H ==1.585 bit/symbol ();()()(,)I X Y H X H Y H X Y =+-=0.251 bit/symbol 2.某系统(7,4)码 )()(01201230123456c c c m m m m c c c c c c c ==c 其三位校验 位与信息位的关系为: 2310 13210 210c m m m c m m m c m m m =++⎧⎪ =++⎨⎪=++⎩ 01 X Y 011/31/30 1/3

信息论与编码理论-第4章无失真信源编码-习题解答-20071202

信息论与编码理论-第4章无失真信源编码-习题解答 -20071202 信息论与编码理论 第4章无失真信源编码 习题及其参考答案 4-1 有一信源,它有六个可能的输出,其概率分布如下表所示,表中给出了对应的码A、B、C、D、E和F (1)求这些码中哪些是唯一可译码;(2)求哪些码是及时码; (3)对所有唯一可译码求出其平均码长。 ?X??s1 4-2 设信源????p(s)P(X)???1s6? p(s2)?p(s6)?? ? s2 ?p(s)?1。对此次能源进行m元唯一 i i?1 6 可译编码,其对应的码长为(l1,l2,…,l6)=(1,1,2,3,2,3),求m值的最好下限。(提示:用kraft不等式) ?s

?X??1 4-3设信源为??1? ?p(X)???2? (1)信源的符号熵;(2)这种码的编码效率; s2 14s3s411816s5132s6s7s8? ,编成这样的码:(000,001,111???64128128? 010,011,100,101,110,111)。求 (3)相应的仙农码和费诺码。4-4求概率分布为(, 11122 信)源的二元霍夫曼编码。讨论此码对于概率分布为3551515 11111 (,,,,)的信源也是最佳二元码。55555 4-5有两个信源X和Y如下: 1 信息论与编码理论 s2s3s4s5s6s7??X??s1 ??p(X)??0.200.190.180.170.150.100.01? ????s2s3s4s5s6s7s8s9??Y??s1??p(Y)??0.490.140.140.070.070.040.020.02 0.01? ???? (1)用二元霍夫曼编码、仙农编码以及费诺编码对信源X和Y进行

信息论与编码试题集与答案

一填空题(本题20分,每小题2分) 1、平均自信息为 表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。 平均互信息 表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。 2、最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。 3、最大熵值为。 4、通信系统模型如下: 5、香农公式为为保证足够大的信道容量,可采用(1)用频带换信噪比;(2)用信噪比换频带。 6、只要,当N足够长时,一定存在一种无失真编码。 7、当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 8、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。 9、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。

按照信息的地位,可以把信息分成 客观信息和主观信息 。 人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的信息。 信息的 可度量性 是建立信息论的基础。 统计度量 是信息度量最常用的方法。 熵 是香农信息论最基本最重要的概念。 事物的不确定度是用时间统计发生 概率的对数 来描述的。 10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。 12、自信息量的单位一般有 比特、奈特和哈特 。 13、必然事件的自信息是 0 。 14、不可能事件的自信息量是 ∞ 。 15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。 16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。 17、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 。 18、离散平稳有记忆信源的极限熵,=∞H )/(lim 121-∞→N N N X X X X H 。 19、对于n 元m 阶马尔可夫信源,其状态空间共有 nm 个不同的状态。 20、一维连续随即变量X 在[a ,b]区间内均匀分布时,其信源熵为 log2(b-a ) 。 21、平均功率为P 的高斯分布的连续信源,其信源熵,Hc (X )=eP π2log 212。 22、对于限峰值功率的N 维连续信源,当概率密度 均匀分布 时连续信源熵具有最大值。 23、对于限平均功率的一维连续信源,当概率密度 高斯分布 时,信源熵有最大值。 24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值P 和信源的熵功

王育民信息论与编码理论第四章答案2

4.5若将N 个相同的BSC 级联如题图4.5所示,各信道的转移概率矩阵为⎥⎦⎤⎢⎣⎡--p p p p 11。令Q t =P{X t =0},t=0,1,…,N,且Q 0为已知。 题图 4.5 (a)求Q t 的表达式。 (b)证明N →∞时有Q N →1/2,且与Q 0取值无关,从而证明N →∞级联信道的信道容量C N →0,P>0。 解: (a)对于满足X N 为马氏链的串联信道,他们总的信道转移概率矩阵为各个串联信道矩阵的乘积,即P(X N |X 0)= P(X 1|X 0) P(X 2|X 1)……P(X N |X N-1) 由已知得,但各信道的转移概率矩阵为⎥⎦ ⎤⎢ ⎣⎡--p p p p 11 则两个信道级联的转移概率矩阵为: P 2=⎥⎦⎤⎢⎣⎡--p p p p 11⎥⎦⎤⎢⎣ ⎡--p p p p 11=()()()()⎥⎦⎤⎢⎣⎡-+---+2222112p 12p 1p p p p p p 三个信道级联的转移概率矩阵为: P 3=()()()()⎥⎥⎥⎦ ⎤⎢⎢⎢⎣⎡-+----+33331221211221211221211-2p 2121p p p 四个信道级联的转移概率矩阵为: P 4=()()()()⎥⎥⎥⎦ ⎤⎢⎢⎢⎣⎡-+----+44441221211221211221211-2p 2121p p p 以此类推:可得N 个信道级联的转移概率矩阵为: P N =()()()()⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡-+----+N N N N p p p 122121122 1211221211-2p 2121 则 Q t =P{X t =0}=()()()()()000121221211122121122121Q p p Q p Q p t t t t -+--=-⎥⎦ ⎤⎢⎣⎡--+⎥⎦⎤⎢⎣⎡-+

信息理论与编码答案 人民邮电出版社

第一章 自我测试题 一、填空题 1. 在认识论层次上研究信息的时候,必须同时考虑到形式、__语义___和__语用___三个方面的因素。 2. 如果从随机不确定性的角度来定义信息,信息是用以消除__随机不确定性___的东西。 3. 信源编码的结果是__减小_冗余;而信道编码的手段是__增加___冗余。 4. _1948_年,香农发表了著名的论文__通信的数学理论__,标志着信息论诞生。 5. 信息商品是一种特殊商品,它有__保存性_性、_共享_性、_老化可能_性和 知识创造性 等特征。 二、判断题 1. 信息传输系统模型表明,噪声仅仅来源于信道(×) 2. 本体论层次信息表明,信息不依赖于人而存在(√) 3. 信道编码与译码是一对可逆变换(×) 4. 1976年,论文《密码学的新方向》的发表,标志着保密通信研究的开始(×) 5. 基因组序列信息的提取和分析是生物信息学的研究内容之一(√) 三、选择题 1. 下列表述中,属于从随机不确定性的角度来定义信息的是__D___ A . 信息是数据 B . 信息是集合之间的变异度 C . 信息是控制的指令 D . 信息是收信者事先不知道的报道 2. ___B__是最高层次的信息 A . 认识论 B . 本体论 C . 价值论 D . 唯物论 3. 下列不属于狭义信息论的是__D___ A . 信息的测度 B . 信源编码 C . 信道容量 D . 计算机翻译 4. 下列不属于信息论的研究内容的是__A___ A . 信息的产生 B . 信道传输能力 C . 文字的统计特性 D . 抗干扰编码 5. 下列关于信息论发展历史描述不正确的是__B___ A . 偶然性、熵函数引进物理学为信息论的产生提供了理论前提。 B . 1952年,香农发展了信道容量的迭代算法 C . 哈特莱用消息可能数目的对数来度量消息中所含有的信息量,为香农创立信息论提供了思路。 D . 1959年,香农首先提出率失真函数和率失真信源编码定理,才发展成为信息率失真编码理论。 四、简答题 给定爱因斯坦质能方程2 E mc D =D ,试说明该方程所传达的语法信息、语义信息和语用信息。 语法信息:就是该方程中各个字母、符号的排列形式。 语义信息:E D 为所产生的能量,m D 为质量的变化,2 c 为光速的平方,=表示左右在量值上相等。综合起来就是,质量的微小变化可以产生巨大的能量。 语用信息:该方程可以启发主体在一定条件下,通过物质质量的变化来产生巨大的能量,如果让能量缓慢释放出来,可以得到核能;如果让能量瞬间释放出来,可借以制造核弹。

信息论与编码答案傅祖芸

信息论与编码答案傅祖芸 【篇一:信息论与编码课程设计报告】 t>设计题目:统计信源熵与香农编码 专业班级学号学生姓名指导教师教师评分 2014年3月24日 目录 一、设计任务与要求................................................. 2 二、设计思路....................................................... 2 三、设计流程图..................................................... 3 四、程序运行及结果................................................. 5 五、心得体会....................................................... 6 参考文 献 .......................................................... 6 附录:源程序.. (7) 一、设计任务与要求 1、统计信源熵 要求:统计任意文本文件中各字符(不区分大小写)数量,计算字 符概率,并计算信源熵。 2、香农编码 要求:任意输入消息概率,利用香农编码方法进行编码,并计算信 源熵和编码效率。 二、设计思路 1、统计信源熵: 统计信源熵就是对一篇英文文章(英文字母数为n),通过对其中 的a,b,c,d/a,b,c,d.....(不区分大小写)统计每个字母的个数n,有这个 公式p=n/n可得每个字母的概率,最后又信源熵计算公式h(x)=??p(xi)logp(xi) i?1n , 可计算出信源熵h,所以整体步骤就是先统计出英文段落的总字符数,在统计每个字符的个数,即每遇到同一个字符就++1,直到算出每个 字符的个数,进而算出每个字符的概率,再由信源熵计算公式计算 出信源熵。 2、香农编码: 香农编码主要通过一系列步骤支出平均码长与信源之间的关系,同 时使平均码长达到极限值,即选择的每个码字的长度ki满足下式: i(xi)?ki?i(xi)?1,?i

信息论与编码试卷及答案2

篇一:信息论与编码期末题(全套) 〔一〕 7、某二元信源 一、判断题共 10 小题,总分值 20 分. 1. 当随机变量X和Y相互独立时,条件熵H(X|Y)等于信源熵H(X). 〔〕 2. 由于构成同一空间的基底不是唯一的,所以不同的基 1X0 P(X)1/21/2,其失真矩阵 0a ,那么该信源的Dmax= Da0 三、此题共 4 小题,总分值 50 分. 1、某信源发送端有2种符号xi(i1,2),p(x1)a;接收端 底或生成矩阵有可能生成同一码集.符号 y( j 1 ,2) ,转移概率矩阵为有3 种,3〔〕 3.一般情况下,用变长编码得到的平均码长比定长编码大得多. 〔〕 4. 只要信息传输率大于信道容量,总存在一种信道编译码,可以以所要求的任意小的误差概率实现可靠的通 信 〔〕 5. 各码字的长度符合克拉夫特不等式,是唯一可译码存在的充分和必要条件. 〔〕 6. 连续信源和离散信源的熵都具有非负性. 〔〕 7. 信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越小,获得的信息量就越小. 8. 汉明码是一种线性分组码. 〔〕 9. 率失真函数的最小值是0 . 〔〕 10.必然事件和不可能事件的自信息量都是0. 〔〕 二、填空题共 6 小题,总分值 20 分. 1 、 码

的 检 、 纠 错 能 力 取 决 于 . 2、信源编码的目的是的目的是 . 3、把信息组原封不动地搬到码字前k位的(n,k)码就叫做 . 4、香农信息论中的三大极限定理 是、、. 5、设信道的输入与输出随机序列分别为X和Y,那么 I(XN,YN)NI(X,Y)成立的 条件 6、对于香农-费诺编码、原始香农-费诺编码和哈夫曼编码,编码方法惟一的是 . iP1/21/20 1/21/41/4. 〔1〕计算接收端的平均不确 定度H(Y);〔2〕计算由于噪声产生的不 确定度H(Y|X);〔3〕计算信道容量以及最正确入口分布. 2、一阶马尔可夫信源的状态转移 图2-13 图如右图所示,信源X的符号集为{0,1,2}. 〔1〕求信源平稳后的概率分布; 〔2〕求此信源的熵; 〔 3 〕近似地认为此信源为无记忆时,符号的概率分布为平 X )

信息论与编码理论王育民答案

信息论与编码理论王育民答案 【篇一:信息论与编码课程改革探索与研究】 学改革的论述。教学改革优化了教学内容,提高了教学效率;让学 生参与到教学过程中,实现师生的良性互动;精心引入前沿科研问题,开拓学生眼界;合理布置作业,及时巩固所学知识;加强了实 验教学,培养学生的应用能力;完善课程考核方法,真实反映学生 学习情况。 关键词:信息论与编码;教学改革;教学方法 中图分类号:g424 文献标志码:a 文章编号:1674-9324(2016)19-0085-02 一、引言 信息论与编码是南通大学电子信息类本科三年级的一门专业必修课,主要是研究信息传输的有效性和可靠性的一门学科[1,2]。该课程是 通信技术与概率论、随机过程、数理统计等学科相互融合而发展起 来的一门交叉学科[3]。该课程要求学生掌握线性代数、微积分等基 本的数学工具,还需要学生对通信原理等课程有较深刻的认识。个 人计算机的普及和通信专业软件的日益成熟,使得该课程的实验教 学成为可能。可见,该课程理论性强、内容多,与先修课程有密切 的关系。针对该课程的变化与最新发展,为了提高教学效果,笔者 在理论教学、实验教学、科研联系教学、考核方式等多个方面进行 了改革。 二、教材选择 根据学校的层次、专业特点和教学对象选择一本合适的教材是教学 改革的一个基本方面。目前,有关信息论与编码这一课程的教材非 常多。如王育民编著的《信息论与编码理论》以及cover著写的 《信息论基础》的中译本和英文影印本。随着网络技术的迅猛发展,最近出现了一些新教材,如仇佩亮编著的《多用户信息论》、yeung 编写的《信息论基础》和gamal编著的《网络信息论》。这些教材 的知识体系结构和侧重点各有不同,而且差别很大。根据信息论与 编码专业必修课的性质,按照强调基础理论学习,突出对所学理论 知识灵活应用的原则,我校选用了曹雪虹主编的《信息论与编码》 作为教材。该教材吸收了国内外众多现有教材的精华,注重基本概念,突出基础理论,强调应用。而且,该教材难度适中,文字通俗

《信息论与编码理论》(王育民李晖梁传甲)课后习题答案高等教育出版社.docx

《信息论与编码理论》(王育民李晖梁传甲)课后习题答案高 等教育出版社.docx 信息论与编码理论习题解 第二章-信息量和熵 2.1解:平均每个符号长为:2 0.2 - 0.4二兰秒 3 3 15 每个符号的熵为-log - 1 Iog3 = 0.9183比特/符号 3 2 3 所以信息速率为0.9183 3.444比特/秒 4 2.2解:同步信号均相同不含信息,其余认为等概, 每个码字的信息量为 3*2=6比特; 所以信息速率为6 1000 =6000比特/秒 解:(a) —对骰子总点数为7的概率是- 36 所以得到的信息量为 Iog 2(~6) = 2.585比特 36 (b) 一对骰子总点数为12的概率是1 36 所以得到的信息量为 Iog 2丄=5.17比特 36 解:(a)任一特定排列的概率为古,所以给出的信息量为 1 -Iog 2 225.58 比特 52!

(b)从中任取13张牌,所给出的点数都不相同的概率为 13! 413 413 A 13 C 13 A 52 C 52 C 13 所以得到的信息量为 log2C? =13.21比特. 4 2.5解:易证每次出现i 点的概率为丄,所以 21 2.3 2.4 I(^i^-log 2-,i =1,2,3,4,5,6 21 I (x = 1) = 4.392 比特 I (x =2) =3.392 比特 I (x =3) =2.807 比特 I (x =4)=2.392 比特 I (x =5) =2.070 比特 I (x =6) =1.807 比特6 H(X) i log 2 i 2.398比特 i 4 21 21 2.6解:可能有的排列总数为 27720 3! 4! 5! 没有两棵梧桐树相邻的排列数可如下图求得, YXYXYXYXYXYXYXY 一 (7 \ 一 图中X 表示白杨或白桦,它有7 种排法,Y 表示梧桐树可以栽 (8\

计算机科学技术:信息论与编码考试题库二

计算机科学技术:信息论与编码考试题库二 1、问答题(江南博哥)请给出平均码长界定定理及其物理意义。 答案: 2、填空题多用户信道的信道容量用()来表示。 答案:多维空间的一个区域的界限 3、判断题狭义的信道编码既是指:信道的检、纠错编码。 答案:对 4、判断题互信息量I(X;Y)表示收到Y后仍对信源X的不确定度。 答案:对 5、判断题对于具有归并性能的无燥信道,当信源等概率分布时(p(xi)=1/n),达到信道容量。 答案:错 6、问答?有两个二元随机变量X和Y,它们的联合概率为P[X=0,Y=0]=1/8,P[X=0,Y=1]=3/8,P[X=1,Y=1]=1/8,P[X=1,Y=0]=3/8。定义另一随机变量Z=XY,试计算: (1)H(X),H(Y),H(Z),H(XZ),H(YZ),H(XYZ); (2)H(X/Y),H(Y/X),H(X/Z),H(Z/X),H(Y/Z),H(Z/Y),H (X/YZ),H(Y/XZ),H(Z/XY); (3)I(X;Y),I(X;Z),I(Y;Z),I(X;Y/Z),I(Y;Z/X),I(X;Z/Y)。 答案: 7、填空题平均互信息量I(X;Y)与信源熵和条件熵之间的关系是()。 答案:(X;Y)=H(X)-H(X/Y) 8、填空题根据输入输出信号的特点,可将信道分成离散信道、连续信道、()信道。 答案:半离散或半连续 9、填空题单符号离散信源一般用随机变量描述,而多符号离散信源一般用()描述。 答案:随机矢量 10、填空题信源编码的目的是提高通信的(),信道编码的目的是提高通信的(),加密编码的目的是保证通信的()。 答案:有效性;可靠性;安全性 11、填空题某离散无记忆信源X,其符号个数为n,则当信源符号呈()分布情况下,信源熵取最大值()。 答案:等概;log(n) 12、名词解释前向纠错(FEC) 答案:是指差错控制过程中是单向的,无须差错信息的反馈。

相关主题
文本预览
相关文档 最新文档