信源编码(数据压缩)课程课后题与答案(第二章)
- 格式:doc
- 大小:2.03 MB
- 文档页数:13
第二章习题解答2-1、试问四进制、八进制脉冲所含信息量是二进制脉冲的多少倍? 解:四进制脉冲可以表示4个不同的消息,例如:{0, 1, 2, 3}八进制脉冲可以表示8个不同的消息,例如:{0, 1, 2, 3, 4, 5, 6, 7} 二进制脉冲可以表示2个不同的消息,例如:{0, 1} 假设每个消息的发出都是等概率的,则:四进制脉冲的平均信息量symbol bit n X H / 24log log )(1=== 八进制脉冲的平均信息量symbol bit n X H / 38log log )(2=== 二进制脉冲的平均信息量symbol bit n X H / 12log log )(0===所以:四进制、八进制脉冲所含信息量分别是二进制脉冲信息量的2倍和3倍。
2、 设某班学生在一次考试中获优(A )、良(B )、中(C )、及格(D )和不及格(E )的人数相等。
当教师通知某甲:“你没有不及格”,甲获得了多少比特信息?为确定自己的成绩,甲还需要多少信息? 解:根据题意,“没有不及格”或“pass”的概率为54511pass =-=P 因此当教师通知某甲“没有不及格”后,甲获得信息在已知“pass”后,成绩为“优”(A ),“良”(B ),“中”(C )和“及格”(D ) 的概率相同:41score )pass |()pass |()pass |()pass |(=====D P C P B P A P P 为确定自己的成绩,甲还需信息bits 241loglog score score =-=-=P I 3、中国国家标准局所规定的二级汉字共6763个。
设每字使用的频度相等,求一个汉字所含的信息量。
设每个汉字用一个1616⨯的二元点阵显示,试计算显示方阵所能表示的最大信息。
显示方阵的利用率是多少?解:由于每个汉字的使用频度相同,它们有相同的出现概率,即67631=P 因此每个汉字所含的信息量为bits 7.1267631loglog =-=-=P I 字每个显示方阵能显示256161622=⨯种不同的状态,等概分布时信息墒最大,所以一个显示方阵所能显示的最大信息量是bits322.054log log passpass =-=-=P Ibits 25621loglog =-=-=P I 阵显示方阵的利用率或显示效率为0497.02567.12===阵字I I η 4、两个信源1S 和2S 均有两种输出:1 ,0=X 和1 ,0=Y ,概率分别为2/110==X X P P ,4/10=Y P ,4/31=Y P 。
第二章部分习题2.1 试问四进制、八进制脉冲所含信息量是二进制脉冲的多少倍?答:2倍,3倍。
2.2 一副充分洗乱了的牌(含52张牌),试问 (1) 任一特定排列所给出的信息量是多少?(2) 若从中抽取13张牌,所给出的点数都不相同, 能得到多少信息量?解:(1) !52log 2 (2) 任取13张,各点数不同的概率为1352!13C ,信息量:9.4793(比特/符号)2.3 居住某地区的女孩子有%25是大学生,在女大学生中有75%是身高160厘米上的,而女孩子中身高160厘米以上的占总数的一半。
假如我们得知“身高160厘米以上的某女孩是大学生”的消息,问获得多少信息量? 答案:1.415比特/符号。
提示:设事件A 表示女大学生,事件C 表示160CM 以上的女孩,则问题就是求p(A|C),83214341)()|()()()()|(=⨯===C p A C p A p C p AC p C A p2.4 设离散无忆信源()123401233/81/41/41/8X a a a a P X ====⎛⎫⎧⎫=⎨⎬ ⎪⎩⎭⎝⎭,其发出的消息为(2021201302130012032101103210100223210),求(1) 此消息的自信息量是多少?(2) 在此消息中平均每个符号携带的信息量是多少?解:(1)87.81比特,(2)1.951比特。
提示:先计算此消息出现的概率,再用自信息量除以此消息包含的符号总数(共45个)。
2.5 从大量统计资料知道,男性中红绿色盲的发病率为7% ,女性发病率为0.5%,如果你问一位男士:“你是否是色盲?”他的回答可能是“是”,可能是“否”,问这两个回答中各含有多少信息量?平均每个回答中含有多少信息量?如果问一位女士,则答案中含有的平均自信息量是多少?(1) 男性回答是的信息量为2log 0.07 3.8369-=比特,回答否的信息量是0.1047比特,平均每个回答含的信息量(即熵)是0.36596比特。
部分答案,仅供参考。
2.1信息速率是指平均每秒传输的信息量点和划出现的信息量分别为3log ,23log ,一秒钟点和划出现的次数平均为415314.0322.01=⨯+⨯一秒钟点和划分别出现的次数平均为45.410那么根据两者出现的次数,可以计算一秒钟其信息量平均为253log 4153log 4523log 410-=+2.3 解:(a)骰子A 和B ,掷出7点有以下6种可能:A=1,B=6; A=2,B=5; A=3,B=4; A=4,B=3; A=5,B=2; A=6,B=1 概率为6/36=1/6,所以信息量-log(1/6)=1+log3≈2.58 bit(b) 骰子A 和B ,掷出12点只有1种可能: A=6,B=6概率为1/36,所以信息量-log(1/36)=2+log9≈5.17 bit2.5解:出现各点数的概率和信息量:1点:1/21,log21≈4.39 bit ; 2点:2/21,log21-1≈3.39 bit ; 3点:1/7,log7≈2.81bit ; 4点:4/21,log21-2≈2.39bit ; 5点:5/21,log (21/5)≈2.07bit ; 6点:2/7,log(7/2)≈1.81bit 平均信息量:(1/21)×4.39+(2/21)×3.39+(1/7)×2.81+(4/21)×2.39+(5/21)×2.07+(2/7)×1.81≈2.4bit2.7解:X=1:考生被录取; X=0:考生未被录取; Y=1:考生来自本市;Y=0:考生来自外地; Z=1: 考生学过英语;Z=0:考生未学过英语P(X=1)=1/4, P(X=0)=3/4; P(Y=1/ X=1)=1/2; P(Y=1/ X=0)=1/10;P(Z=1/ Y=1)=1, P(Z=1 / X=0, Y=0)=0.4, P(Z=1/ X=1, Y=0)=0.4, P(Z=1/Y=0)=0.4 (a) P(X=0,Y=1)=P(Y=1/X=0)P(X=0)=0.075, P(X=1,Y=1)= P(Y=1/X=1)P(X=1)=0.125P(Y=1)= P(X=0,Y=1)+ P(X=1,Y=1)=0.2P(X=0/Y=1)=P(X=0,Y=1)/P(Y=1)=0.375, P(X=1/Y=1)=P(X=1,Y=1)/P(Y=1)=0.625 I (X ;Y=1)=∑∑=====xx)P()1Y /(P log)1Y /(P )1Y (I )1Y /(P x x x x;x=1)P(X )1Y /1X (P log)1Y /1X (P 0)P(X )1Y /0X (P log)1Y /0X (P =====+======0.375log(0.375/0.75)+0.625log(0.625/0.25)=(5/8)log5-1≈0.45bit(b) 由于P(Z=1/ Y=1)=1, 所以 P (Y=1,Z=1/X=1)= P (Y=1/X=1)=0.5 P (Y=1,Z=1/X=0)= P (Y=1/X=0)=0.1那么P (Z=1/X=1)= P (Z=1,Y=1/X=1)+ P (Z=1,Y=0/X=1)=0.5+ P (Z=1/Y=0,X=1)P (Y=0/X=1)=0.5+0.5*0.4=0.7P(Z=1/X=0)= P (Z=1,Y=1/X=0)+ P (Z=1,Y=0/X=0)=0.1+P(Z=1/Y=0,X=0)P(Y=0/X=0)=0.1+0.9*0.4=0.46P (Z=1,X=1)= P (Z=1/X=1)*P(X=1)=0.7*0.25=0.175 P (Z=1,X=0)= P (Z=1/X=0)*P(X=0)= 0.46*0.75=0.345 P(Z=1) = P(Z=1,X=1)+ P(Z=1,X=0) = 0.52 P(X=0/Z=1)=0.345/0.52=69/104 P(X=1/Z=1)=35/104I (X ;Z=1)=∑∑=====xx )P()1Z /(P log )1Z /(P )1Z (I )1Z /(P x x x x;x=1)P(X )1Z /1X (P log )1Z /1X (P 0)P(X )1Z /0X (P log )1Z /0X (P =====+======(69/104)log(23/26)+( 35/104)log(35/26) ≈0.027bit(c)H (X )=0.25*log(1/0.25)+0.75*log(1/0.75)=2-(3/4)log3=0.811bit H(Y/X)=-P(X=1,Y=1)logP(Y=1/X=1) -P(X=1,Y=0)logP(Y=0/X=1)-P(X=0,Y=1)logP(Y=1/X=0) -P(X=0,Y=0)logP(Y=0/X=0)=-0.125*log0.5-0.125*log0.5-0.075*log0.1-0.675*log0.9=1/4+(3/40)log10-(27/40)log(9/10)≈0.603bitH(XY)=H(X)+H(Y/X)=9/4+(3/4)log10-(21/10)log3=1.414bitP(X=0,Y=0,Z=0)= P(Z=0 / X=0, Y=0)* P( X=0, Y=0)=(1-0.4)*(0.75-0.075)=0.405 P(X=0,Y=0,Z=1)= P(Z=1 / X=0, Y=0)* P( X=0, Y=0)=0.4*0.675=0.27P(X=1,Y=0,Z=1)= P(Z=1/ X=1,Y=0)* P(X=1,Y=0)=0.4*(0.25-0.125)=0.05 P(X=1,Y=0,Z=0)= P(Z=0/ X=1,Y=0)* P(X=1,Y=0)=0.6*0.125=0.075 P(X=1,Y=1,Z=1)=P(X=1,Z=1)- P(X=1,Y=0,Z=1)=0.175-0.05=0.125 P(X=1,Y=1,Z=0)=0 P(X=0,Y=1,Z=0)=0P(X=0,Y=1,Z=1)= P(X=0,Z=1)- P(X=0,Y=0,Z=1)= 0.345-0.27=0.075H(XYZ)=-0.405*log0.405-0.27*log0.27-0.05*log0.05-0.075*log0.075-0.125*log0.125-0.075*log 0.075=(113/100)+(31/20)log10-(129/50)log3 =0.528+0.51+0.216+0.28+0.375+0.28=2.189 bitH(Z/XY)=H(XYZ)-H(XY)= -28/25+(4/5)log10-12/25log3 =0.775bit2.9 解:A ,B ,C 分别表示三个筛子掷的点数。
第二章信源编码习题解答1、设英文字母E出现的概率为0.105,X出现的概率为0.002,试求E和X的信息量。
2、某离散信源输出x1、x2、…、x8共8个不同的消息,符号速率为2400B,其中四个消息出现的概率为P(x1)=P(x2)=1/16,P(x3)=1/8,P(x4)=1/4,其他消息等概率出现。
①求该信源的平均信息速率;②求传送一小时的信息量。
3、设一离散信源分别以概率P A、P B、P C、P D发送四个消息A、B、C、D,每个消息的出现是相互独立的,试根据条件完成以下计算:①如果P A=1/4,P B =1/8,P C =1/8,P D=1/2,试计算该信源的熵;②对于传输的每一消息用二进制脉冲编码,00代表A ,01代表B ,11代表C ,10代表D ,每个脉冲宽度为5ms ,如果不同的消息等可能出现,试计算传输的平均信息速率;③如果P A =1/5,P B =1/4,P C =1/4,P D =3/10,试用Huffman 编码算法对该信源进行编码,并计算编码效率。
[解] ①H =1.75 bit/符号②符号速率为R B =1/2*0.005=100 B ,信息速率为R b = R B *2=200 B 。
③ 略。
4、设A 系统以2000bps 的比特率传输2PSK 调制信号的带宽为2000Hz ,B 系统以2000bps 的比特率传输4PSK 调制信号的带宽为1000Hz 。
试问:哪个系统更有效?[解] 两个传输速率相等的系统其传输效率并不一定相同。
因为真正衡量数字通信系统有效性的指标是频带利用率。
对于A 系统,20001(/)2000b b R bps Hz B η=== 对于B 系统,20002(/)1000b b R bps Hz B η=== 所以B 系统的有效性更好。
5、设某四进制数字传输系统的每个码元的持续时间(宽度)为833×10-6s ,连续工作1h 后,接收端收到6个错码,且错误码元中仅发生1bit 的错码。
第二章 信息的度量习题参考答案不确定性与信息(2.3)一副充分洗乱的牌(含52张),试问: (1)任一特定排列所给出的不确定性是多少?(2)随机抽取13张牌,13张牌的点数互不相同时的不确定性是多少? 解:(1)一副充分洗乱的扑克牌,共有52张,这52张牌可以按不同的一定顺序排列,可能有的不同排列状态数就是全排列种数,为6752528.06610P =≈⨯!因为扑克牌充分洗乱,所以任一特定排列出现的概率是相等的。
设事件A 为任一特定排列,则其发生概率为 ()6811.241052P A -=≈⨯!可得,任一特定排列的不确定性为()()22log log 52225.58I A P A =-=≈!比特 (2)设事件B 为从中抽取13张牌,所给出的点数都不同。
扑克牌52张中抽取13张,不考虑其排列顺序,共有1352C 种可能的组合,各种组合都是等概率发生的。
13张牌中所有的点数都不相同(不考虑其顺序)就是13张牌中每张牌有4种花色,所以可能出现的状态数为413。
所以()131341352441339 1.05681052P B C -⨯!!==≈⨯!则事件B 发生所得到的信息量为()()13213524log log 13.208I B P B C =-=-≈ 比特2.4同时扔出两个正常的骰子,也就是各面呈现的概率都是1/6,求: (1)“2和6 同时出现”这事件的自信息量。
(2)“两个3同时出现”这事件的自信息量。
(3)两个点数的各种组合(无序对)的熵。
(4)两个点数之和(即2,3,…,12构成的子集)的熵。
(5)两个点数中至少有一个是1的自信息。
解:同时扔两个正常的骰子,可能呈现的状态数有36种,因为两骰子是独立的,又各面呈现的概率为61,所以36种中任一状态出现的概率相等,为361。
(1) 设“2和6同时出现”这事件为A 。
在这36种状态中,2和6同时出现有两种情况,即2,6和2,6。
2.1 同时掷两个正常的骰子,也就是各面呈现的概率都是1/6,求: (1)“3和5同时出现”事件的自信息量; (2)“两个1同时出现”事件的自信息量;(3)两个点数的各种组合(无序对)的熵或平均信息量; (4)两个点数之和(即2,3,…,12构成的子集)的熵;(5)两个点数中至少有一个是1的自信息。
解:(1)一个骰子点数记为X ,另一个骰子的点数记做Y ,X 、Y 之间相互独立,且都服从等概率分布,即同理一个骰子点数为3,另一个骰子点数为5属于组合问题,对应的概率为181616161613Y Py 5X Px 5Y Py 3X Px P 1=⨯+⨯===+===)()()()(对应的信息量为比特)()(17.4181-lb P -I 11===lb(2)两个骰子点数同时为1的概率为)()(3611Y Py 1X Px P 2==== 对应的信息量为比特)()(17.5361-lb P -I 22===lb(3)各种组合及其对应的概率如下,6,5,4,3,2,1Y X 3616161Y X P ===⨯==)(共6种可能18161612Y X P =⨯⨯=≠)( 共有15种可能因此对应的熵或者平均自信息量为34.418118115-3613616-H 1=⨯⨯⨯⨯=)()(lb lb 比特/符号 (4)令Z=X+Y ,可以计算出Z 对应的概率分布如下对应的熵为符号比特)()()()()()()(/1.914366366-3653652-3643642-3633632-3633632-3623622-361361-2H 1=⨯⨯⨯⨯⨯⨯⨯⨯⨯⨯⨯⨯⨯=lb lb lb lb lb lb lb (5)X 、Y 相互独立,所以联合熵为比特)()(597.06162Y X,I =⨯=lb2.2 设在一只布袋中装有100个大小、手感完全相同的球,每个球上涂有一种颜色。
100个球的颜色有下列3种情况:(1)红色球和白色球各50个; (2)红色球99个,白色球1个; (3)红、黄、蓝、白色球各25个。
第二章信息的度量2.1信源在何种分布时,熵值最大?又在何种分布时,熵值最小?答:信源在等概率分布时熵值最大;信源有一个为1,其余为0时熵值最小。
2.2平均互信息量I(X;Y)与信源概率分布q(x)有何关系?与p(y|x)又是什么关系?答:若信道给定,I(X;Y)是q(x)的上凸形函数;若信源给定,I(X;Y)是q(y|x)的下凸形函数。
2.3熵是对信源什么物理量的度量?答:平均信息量2.4设信道输入符号集为{x1,x2,……xk},则平均每个信道输入符号所能携带的最大信息量是多少?答:kk k xi q xi q X H i log 1log 1)(log )()(2.5根据平均互信息量的链规则,写出I(X;YZ)的表达式。
答:)|;();();(Y Z X I Y X I YZ X I 2.6互信息量I(x;y)有时候取负值,是由于信道存在干扰或噪声的原因,这种说法对吗?答:互信息量)()|(log );(xi q yj xi Q y x I ,若互信息量取负值,即Q(xi|yj)<q(xi),说明事件yi 的出现告知的是xi 出现的可能性更小了。
从通信角度看,视xi 为发送符号,yi 为接收符号,Q(xi|yj)<q(xi),说明收到yi 后使发送是否为xi 的不确定性更大,这是由于信道干扰所引起的。
2.7一个马尔可夫信源如图所示,求稳态下各状态的概率分布和信源熵。
答:由图示可知:43)|(41)|(32)|(31)|(41)|(43)|(222111110201s x p s x p s x p s x p s x p s x p 即:43)|(0)|(41)|(31)|(32)|(0)|(0)|(41)|(43)|(222120121110020100s s p s s p s s p s s p s s p s s p s s p s s p s s p 可得:1)()()()(43)(31)()(31)(41)()(41)(43)(210212101200s p s p s p s p s p s p s p s p s p s p s p s p得:114)(113)(114)(210s p s p s p )]|(log )|()|(log )|()[()]|(log )|()|(log )|()[()]|(log )|()|(log )|()[(222220202121211111010100000s s p s s p s s p s s p s p s s p s s p s s p s s p s p s s p s s p s s p s s p s p H 0.25(bit/符号)2.8一个马尔可夫信源,已知:0)2|2(,1)2|1(,31)1|2(,32)1|1(x x p x x p x x p x x p 试画出它的香农线图,并求出信源熵。
信息论与编码习题参考答案 第一章 单符号离散信源1.1同时掷一对均匀的子,试求:(1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵;(5)“两个点数中至少有一个是1”的自信息量。
解:bitP a I N n P bit P a I N n P c c N 17.536log log )(361)2(17.418log log )(362)1(36662221111616==-=∴====-=∴===⨯==样本空间:(3)信源空间:bit x H 32.436log 3662log 3615)(=⨯⨯+⨯⨯=∴ bitx H 71.3636log 366536log 3610 436log 368336log 366236log 36436log 362)(=⨯⨯+⨯+⨯+⨯⨯=∴++ (5) bit P a I N n P 17.11136log log )(3611333==-=∴==1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格内,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格内。
(1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。
解:bita P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481)(:)1(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率Θbitb P b P b b P b I b P A i 55.547log )(log )()(H 47log )(log )(471)(:B ,)2(481i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知ΘbitAB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()()(log )(471481)()3(47481=⨯=-=-=∴⨯=∑⨯=是同时落入某两格的概率1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。
信息论编码与基础课后题(第二章)第二章习题解答2-1、试问四进制、八进制脉冲所含信息量是二进制脉冲的多少倍?解:四进制脉冲可以表示4个不同的消息,例如:{0, 1, 2, 3}八进制脉冲可以表示8个不同的消息,例如:{0, 1, 2, 3, 4, 5, 6, 7}二进制脉冲可以表示2个不同的消息,例如:{0, 1}假设每个消息的发出都是等概率的,则: 四进制脉冲的平均信息量symbol bit n X H / 24log log )(1===八进制脉冲的平均信息量symbolbit n X H / 38log log )(2=== 二进制脉冲的平均信息量symbolbit n XH / 12log log )(0===所以:四进制、八进制脉冲所含信息量分别是二进制脉冲信息量的2倍和3倍。
2、 设某班学生在一次考试中获优(A )、良(B )、中(C )、及格(D )和不及格(E )的人数相等。
当教师通知某甲:“你没有不及格”,甲获得了多少比特信息?为确定自己的成绩,甲还需要多少信息?解:根据题意,“没有不及格”或“pass”的概率为54511pass =-=P因此当教师通知某甲“没有不及格”后,甲获得信息在已知“pass”后,成绩为“优”(A ),“良”(B ),“中”(C )和“及格”(D ) 的概率相同:41score )pass |()pass |()pass |()pass |(=====D P C P B P A P P为确定自己的成绩,甲还需信息bits 241log log score score =-=-=P I 3、中国国家标准局所规定的二级汉字共6763个。
设每字使用的频度相等,求一个汉字所含的信息量。
设每个汉字用一个1616⨯的二元点阵显示,试计算显示方阵所能表示的最大信息。
显示方阵的利用率是多少?解:由于每个汉字的使用频度相同,它们有相同的出现概率,即 67631=P 因此每个汉字所含的信息量为bits 7.1267631log log =-=-=P I 字每个显示方阵能显示256161622=⨯种不同的状态,bits 322.054loglog passpass =-=-=P I等概分布时信息墒最大,所以一个显示方阵所能显示的最大信息量是bits25621loglog 256=-=-=P I 阵显示方阵的利用率或显示效率为0497.02567.12===阵字I I η4、两个信源1S 和2S 均有两种输出:1 ,0=X 和1 ,0=Y ,概率分别为2/110==X XP P ,4/10=YP ,4/31=YP 。
信息论与编码第二版答案第一章:信息论基础1.问题:信息论的基本概念是什么?答案:信息论是一种数学理论,研究的是信息的表示、传输和处理。
它的基本概念包括:信息、信息的熵和信息的编码。
2.问题:什么是信息熵?答案:信息熵是信息的度量单位,表示信息的不确定度。
它的计算公式为H(X) = -ΣP(x) * log2(P(x)),其中P(x)表示事件x发生的概率。
3.问题:信息熵有什么特性?答案:信息熵具有以下特性:•信息熵的值越大,表示信息的不确定度越高;•信息熵的值越小,表示信息的不确定度越低;•信息熵的最小值为0,表示信息是确定的。
4.问题:信息熵与概率分布有什么关系?答案:信息熵与概率分布之间存在着直接的关系。
当概率分布均匀时,信息熵达到最大值;而当概率分布不均匀时,信息熵会减小。
第二章:数据压缩1.问题:数据压缩的目的是什么?答案:数据压缩的目的是通过消除冗余和重复信息,使数据占用更少的存储空间或传输更快。
2.问题:数据压缩的两种基本方法是什么?答案:数据压缩可以通过无损压缩和有损压缩两种方法来实现。
无损压缩是指压缩后的数据可以完全还原为原始数据;而有损压缩则是指压缩后的数据不完全还原为原始数据。
3.问题:信息压缩的度量单位是什么?答案:信息压缩的度量单位是比特(bit),表示信息的数量。
4.问题:哪些方法可以用于数据压缩?答案:数据压缩可以通过以下方法来实现:•无结构压缩方法:如霍夫曼编码、算术编码等;•有结构压缩方法:如词典编码、RLE编码等;•字典方法:如LZW、LZ77等。
第三章:信道容量1.问题:什么是信道容量?答案:信道容量是指在给定信噪比的条件下,信道传输的最大数据速率。
2.问题:信道容量的计算公式是什么?答案:信道容量的计算公式为C = W * log2(1 + S/N),其中C表示信道容量,W表示信道带宽,S表示信号的平均功率,N表示噪声的平均功率。
3.问题:信道容量与信噪比有什么关系?答案:信道容量与信噪比成正比,信噪比越高,信道容量越大;反之,信噪比越低,信道容量越小。
信息论与编码课后习题答案信息论与编码课后习题答案第⼆章2.3 同时掷出两个正常的骰⼦,也就是各⾯呈现的概率都为1/6,求:(1) “3和5同时出现”这事件的⾃信息; (2) “两个1同时出现”这事件的⾃信息;(3) 两个点数的各种组合(⽆序)对的熵和平均信息量; (4) 两个点数之和(即2, 3, … , 12构成的⼦集)的熵; (5) 两个点数中⾄少有⼀个是1的⾃信息量。
解:(1)bitx p x I x p i i i 170.4181log )(log )(18161616161)(=-=-==+=(2)bitx p x I x p i i i 170.5361log )(log )(3616161)(=-=-===(3)两个点数的排列如下: 11 12 13 14 15 16 21 22 23 24 25 26 31 32 33 34 35 36 41 42 43 44 45 46 51 52 53 54 55 56 61 62 63 64 65 66共有21种组合:其中11,22,33,44,55,66的概率是3616161=? 其他15个组合的概率是18161612=?symbol bit x p x p X H ii i / 337.4181log 18115361log 3616)(log )()(=??? ??+-=-=∑参考上⾯的两个点数的排列,可以得出两个点数求和的概率分布如下:bit x p x p X H X P X ii i / 274.3 61log 61365log 365291log 912121log 1212181log 1812361log 3612 )(log )()(36112181111211091936586173656915121418133612)(=?+?+?+?+?+?-=-==?∑(5)bit x p x I x p i i i 710.13611log)(log )(3611116161)(=-=-===2.42.12 两个实验X 和Y ,X={x 1 x 2 x 3},Y={y 1 y 2 y 3},l 联合概率(),i j ij r x y r =为1112132122233132337/241/2401/241/41/2401/247/24r r r r r r rr r=(1)如果有⼈告诉你X 和Y 的实验结果,你得到的平均信息量是多少?(2)如果有⼈告诉你Y 的实验结果,你得到的平均信息量是多少?(3)在已知Y 实验结果的情况下,告诉你X 的实验结果,你得到的平均信息量是多少?解:联合概率(,)i j p x y 为 22221(,)(,)log (,)724112log 4log 24log 4247244i j i j ijH X Y p x y p x y ==?=2.3bit/符号X 概率分布 21()3log 3 1.583H Y =?=bit/符号(|)(,)() 2.3 1.58H X Y H X Y H Y =-=- Y 概率分布是 =0.72bit/符号 Y y1 y2 y3 P8/248/248/242.15P(j/i)=2.16 ⿊⽩传真机的消息元只有⿊⾊和⽩⾊两种,即X={⿊,⽩},⼀般⽓象图上,⿊⾊的Y X y1y 2 y 3 x 1 7/24 1/24 0 x 2 1/24 1/4 1/24 x 31/247/24X x 1 x 2 x 3 P8/248/248/24出现概率p(⿊)=0.3,⽩⾊出现的概率p(⽩)=0.7。
信息论与编码第二章课后答案在信息科学领域中,信息论和编码是两个息息相关的概念。
信息论主要研究信息的传输和处理,包括信息的压缩、传输的准确性以及信息的安全性等方面。
而编码则是将信息进行转换和压缩的过程,常用的编码方式包括霍夫曼编码、香农-费诺编码等。
在《信息论与编码》这本书的第二章中,涉及了信息的熵、条件熵、熵的连锁法则等概念。
这些概念对于信息理解和编码实现有着重要的意义。
首先是信息的熵。
熵可以简单理解为信息的不确定性。
当信息的发生概率越大,它的熵就越小。
比如说,一枚硬币的正反面各有50%的概率,那么它的熵就是1bit。
而如果硬币只有正面,那么它的熵就是0bit,因为我们已经知道了结果,不再有任何不确定性。
其次是条件熵。
条件熵是在已知某些信息(即条件)的前提下,对信息的不确定性进行量化。
它的定义为已知条件下,信息的熵的期望值。
比如说,在猜词游戏中,我们手中已经有一些字母的信息,那么此时猜测单词的不确定性就会下降,条件熵也就会减少。
除了熵和条件熵之外,连锁法则也是信息理解和编码实现中的重要概念。
连锁法则指的是一个信息在不同时刻被传输的情况下,熵的变化情况。
在信息传输的过程中,信息的熵可能会发生改变。
这是因为在传输过程中,可能会发生噪声或者数据重复等情况。
而连锁法则就是用来描述这种情况下信息熵的变化情况的。
最后,霍夫曼编码和香农-费诺编码是两种比较常用的编码方式。
霍夫曼编码是一种无损压缩编码方式,它可以将出现频率高的字符用较短的二进制编码表示,出现频率较低的字符用较长的二进制编码表示。
香农-费诺编码则是一种用于无失真信源编码的方法,可以把每个符号用尽可能短的二进制串来表示,使得平均码长最小化。
总的来说,信息论和编码是信息科学中非常重要的两个概念。
通过对信息熵、条件熵、连锁法则等的探讨和了解,可以更好地理解信息及其传输过程中的不确定性和数据处理的方法。
而霍夫曼编码和香农-费诺编码则是实现数据压缩和传输的常用编码方式。
信源编码Assignment of CH21、(a)画出一般通信系统结构的组成框图,并详细说明各部分的作用或功能;信源信源编码信道编码调制噪声信道传输信宿信源解码信道解码解调图1、一般数字通信系统框图各部分功能:$1、信源和信宿:信源的作用是把消息转换成原始的电信号;信宿的作用是把复原的电信号转换成相应的消息。
2、信源编码和信源解码:一是进行模/数转换,二是进行数据压缩,即设法降低信号的数码率;信源解码是信源编码的逆过程。
3、信道编码和信道解码:用于提高信道可靠性、减小噪声对信号传输的影响;信道解码是信道编码的反变换。
4、调制和解调:将信息调制为携带信息、适应在信道中传输的信号。
数字解调是数字调制的逆变换。
¥5、信道:通信的通道,是信号传输的媒介。
(b)画出一般接收机和发射机的组成框图,并分别说明信源编解码器和信道编解码器的作用;高频振荡器高频放大调制高频功放天线( 信号音频功放图2、一般发射机框图(无线广播调幅发射机为例)天线信号放大器混频器解调器音频放大器信号本地振荡器图3、一般接收机框图(无线广播调幅发射机为例)信源编解码器作用:它通过对信源的压缩、扰乱、加密等一系列处理,力求用最少的数码最安全地传输最大的信息量。
信源编解码主要解决传输的有效性问题。
信道编解码器作用:使数字信息在传输过程中不出错或少出错,而且做到自动检错和尽量纠错。
信道编解码主要解决传输的可靠性问题。
(c)信源编码器和解码器一般由几部分组成,画出其组成图并给以解释。
信源编码器时频分析量化熵编码信道传输时频分析反量化熵解码信源解码器图 4、信源编解码器框图时频分析部分:信源编码器对信源传送来的信号进行一定方法的时域频域分析,建立一个能够表达信号规律性的数学模型,从而得知信号中的相关性和多余度,分析出信号数据中可以剔除或减少的部分(比如人感知不到的高频率音频信号或者看不见的色彩信号等等),以决定对后续数据的比特分配、编码速率等处理问题。
信息论编码与基础课后题(第二章)————————————————————————————————作者:————————————————————————————————日期:第二章习题解答2-1、试问四进制、八进制脉冲所含信息量是二进制脉冲的多少倍? 解:四进制脉冲可以表示4个不同的消息,例如:{0, 1, 2, 3} 八进制脉冲可以表示8个不同的消息,例如:{0, 1, 2, 3, 4, 5, 6, 7} 二进制脉冲可以表示2个不同的消息,例如:{0, 1} 假设每个消息的发出都是等概率的,则:四进制脉冲的平均信息量symbol bit n X H / 24log log )(1=== 八进制脉冲的平均信息量symbol bit n X H / 38log log )(2=== 二进制脉冲的平均信息量symbol bit n X H / 12log log )(0===所以:四进制、八进制脉冲所含信息量分别是二进制脉冲信息量的2倍和3倍。
2、 设某班学生在一次考试中获优(A )、良(B )、中(C )、及格(D )和不及格(E )的人数相等。
当教师通知某甲:“你没有不及格”,甲获得了多少比特信息?为确定自己的成绩,甲还需要多少信息? 解:根据题意,“没有不及格”或“pass”的概率为54511pass =-=P 因此当教师通知某甲“没有不及格”后,甲获得信息在已知“pass”后,成绩为“优”(A ),“良”(B ),“中”(C )和“及格”(D )的概率相同:41score )pass |()pass |()pass |()pass |(=====D P C P B P A P P 为确定自己的成绩,甲还需信息bits 241loglog score score =-=-=P I 3、中国国家标准局所规定的二级汉字共6763个。
设每字使用的频度相等,求一个汉字所含的信息量。
设每个汉字用一个1616⨯的二元点阵显示,试计算显示方阵所能表示的最大信息。
第一章:信源编码的概念(绪论)1. 数据压缩的一个基本问题是“我们要压缩什么?”;你对此如何理解?2. 你所了解的各类编码的目的是什么?请各举一例解释编码作用。
3. 你怎样理解信息率失真函数R (D )对于信源编码的指导作用?试举例。
4. 等概率信源还能否压缩?为什么?请举例说明。
5 你理解的联合编码的发展方向是什么?信源编码的发展趋势和进展有哪些?第二章:无损信源编码1.有二元独立序列,已知00.9p =,10.1p =,求这序列的符号熵。
当用赫夫曼编码时,以三个二元符号合成一个新符号,求这种符号的平均代码长度和编码效率。
设输入二元符号的速率是每秒100个,要求三分钟内溢出和取空的概率均小于0.01,求所需要的信道码率(bit/s )和存储器容量(比特数)。
若信道码率已规定为50 bit/s ,存储器容量将如何选择?2.有二元平稳马氏链,已知P (0|0)=0.8,P (1|1)=0.7,求它的符号熵。
用三个符号合成一个来编赫夫曼码,求这新符号的平均代码长度和编码效率。
3.对上题的信源进行游程编码。
若“0”游程长度的截止值是16,“1”游程的截止值是8,求编码效率。
这样的编码效率是否已达到最佳?为什么?4.求三阶马氏链的“0”游程长度和“1”游程长度的条件概率,设原序列的条件概率为:P (0|r )=r a其中r=0,1,2,···7,是前三位的二进制位数。
5.计算帧长N=63,信息位数Q=0,1,2,4,8,16,和32时L-D 码和信息标志码的压缩率,并讨论计算结果。
第三章:算术编码1.已知二元序列的概率011/8,7/8p p ==011/8,7/8p p ==。
试对下列序列编算数码,取W=3的计算精度,并计算符号的平均码长:11111111110111111111102.计算上题的序列的符号熵,并与算数码的符号平均码长比较,理解这一结果。
3.已知二元平稳马氏链的条件概率为p (0|0)=1/2,p (0|1)=1/4;用最低精度位数对下列序列编算数码,并计算符号的平均码长:111101011110010111100000111111114.若对上题序列以二位并元处理来编赫夫曼码,则符号的平均码长是多少?并与上题的结果比较。
信源编码Assignment of CH21、(a)画出一般通信系统结构的组成框图,并详细说明各部分的作用或功能;信源信源编码信道编码调制噪声信道传输,信宿信源解码信道解码解调图1、一般数字通信系统框图各部分功能:1、信源和信宿:信源的作用是把消息转换成原始的电信号;信宿的作用是把复原的电信号转换成相应的消息。
.2、信源编码和信源解码:一是进行模/数转换,二是进行数据压缩,即设法降低信号的数码率;信源解码是信源编码的逆过程。
3、信道编码和信道解码:用于提高信道可靠性、减小噪声对信号传输的影响;信道解码是信道编码的反变换。
4、调制和解调:将信息调制为携带信息、适应在信道中传输的信号。
数字"解调是数字调制的逆变换。
5、信道:通信的通道,是信号传输的媒介。
(b)画出一般接收机和发射机的组成框图,并分别说明信源编解码器和信道编解码器的作用;…高频振荡器高频放大调制高频功放天线"音频功放信号图2、一般发射机框图(无线广播调幅发射机为例)天线信号放大器混频器解调器音频放大器信号本地振荡器图3、一般接收机框图(无线广播调幅发射机为例)信源编解码器作用:它通过对信源的压缩、扰乱、加密等一系列处理,力求用最少的数码最安全地传输最大的信息量。
信源编解码主要解决传输的有效性问题。
信道编解码器作用:使数字信息在传输过程中不出错或少出错,而且做到自动检错和尽量纠错。
信道编解码主要解决传输的可靠性问题。
(c)信源编码器和解码器一般由几部分组成,画出其组成图并给以解释。
信源编码器时频分析量化熵编码信道传输时频分析反量化熵解码信源解码器图 4、信源编解码器框图时频分析部分:信源编码器对信源传送来的信号进行一定方法的时域频域分析,建立一个能够表达信号规律性的数学模型,从而得知信号中的相关性和多余度,分析出信号数据中可以剔除或减少的部分(比如人感知不到的高频率音频信号或者看不见的色彩信号等等),以决定对后续数据的比特分配、编码速率等处理问题。
量化部分:根据时频分析的结果,为了更加简洁地表达利用该模型的参数,减少精度,采取相应量化方法对信号进行量化,减小信号的多余度和不相关性,也达到了减小数据量的目的, 如果没有此步骤,则可以实现信源压缩。
反 量化是其逆过程。
熵编码部分:采取相应的熵编码方式,对量化后的量化数据进行无失真的码 字分配,尽可能紧凑地压, 同时力求编码能忠实地再现模型参数的量化符 号,是一种无失真的压缩编码。
熵解码是其逆过程。
2、( a )用具体事实说明为什么要进行数据压缩和信源编码 以一部电影为例:假如一部 24 帧/秒的高清电为 90 分钟,分辨率为 1920×1080,每个像素点采用 8bit 位编码( 256 全彩色),那么每帧上的信息量 就为 1920× 1080× 8/1024=,每分钟有 24×60=1440 帧, 90 分钟就有 129600 帧,所以这部电影的总信息量为 129600×1024≈ 48000Gb 。
这是一 个很恐怖的数据量, 所以为了更加快速和便携地对多媒体信息 充分地 利用目前有限的存, 提高信道利用率,让多媒体信息能够广泛普 就必须对信源进行数据压缩与信源编码。
(b )为什么能够进行进行数据压缩和信源编码 图 5、数据压缩方向:多余度与不相关性 如图 5 所示,该图表明了信源余度和不相关性)和编码的总体方向如一幅图片或电影中存在大面色模块, 那么这些模块中就存在着大量的多 余度,也就给了我们可以进行数不相关性,例如在被麦克风或镜头所采集到的声音视频信息中,就存在着人类所感知不到的频率和色域,这些部分的有无对人类收听和观看多媒体信息没有影响,即这些人类感知的不到的信息在某些情况下是多余的,可以进行数据压缩的。
(c)数据压缩和信源编码的性能主要从那几个方面来衡量一、信号质量:客观度量与主观度量对数据压缩和信源编码性能的判定,很大程度上取决于对处理后信号质量的评价,其实也就是对波形逼真度(或失真度)的测量,这既可以通过客观度量(如信噪比)也可以用主观度量(如平均评分)来评价。
客观度量包括MSE(包括 NMSE、PMSE)这样的准则来度量波形失真,和用S NR(包括 NSNR、PSNR)准则来衡量编码器的性能;主观度量主要是人为的评定,包括二元判决、主观SNR、平均判分( MOS)、等偏爱度曲线和多维计分等,图像视频用各国各地区的主观测试分级标准来评分,语音质量由5 级质量M OS 判分或者 PESQ标准判定。
二、比特率单从数据压缩的角度来说,比特率常常是体现一个实际编码系统或理论压缩算法技术水平的最主要的指标。
三、复杂度信号压缩系统的复杂度是指为实现编解码算法所需的硬件设备量,典型地可用算法的运算量及所需的存储量来度量。
四、通信时延随着算法复杂度的提升,信号样本数增加,处理的时延也会有所提升,而取决于不同的通信环境,对通信时延一般都有不同的要求。
五、编码和数字通信系统的性能空间将信号质量、编码效率、系统复杂度和通信时延抽象为一个 4 维空间,任何数据压缩信源编码系统设计都要考虑到空间内的性能取舍。
一般来说,信号质量和时延决定了一个信息传输系统所能提供的QoS,而codec的效率和复杂度则关系到系统的经济指标。
3、( a )试用信息量和信源熵的概念解释和说明信源多余度和进行无失真编码 的基本原理;首先我们知道数据熵的含义是一组数据度,用H 表示,公式为: nH = [ p log p ]i 2 i i 1 在一组二进制,我们通过计算知, 只有当所有码字出现概率等概时, 信源熵的值最大, 例如:当信源 P= {p1, p2, ⋯ ,p4} = {1/4, 1/4, 1/4, 1/4} 时,H=2; 当 P= {p1, p2, ⋯ , p4} = {1/2, 1/6, 1/6, 1/6} 时,H=。
也就是说,一组数据的 总比特数大于等于码数与信源 这时我们就可以发现信源存在多 余度。
所以可以发现信源数据可压缩(含有多余度)的条件是信源码不等概。
再来看信源多余度的定义: n R I p Hi i i 1当信源等概发送时,此时的 H 与平均码长相等,即 R=0,没有多余度,而当不 等概发送时, R 必大于 0,这就代表了信源信号必有可以进行数据压缩的空间, 而熵 H 就代表了最佳压缩码长。
这也告诉我们采取适当的压缩式,只要 编码码长在最佳压缩码长之上,就现无失真编码。
(b )常用的无失真编码算法 常用的无失真压缩编码有:霍夫曼编码、算术编程编码、二进制信源 编码、基于字典的编码、 L Z W 编码、完全可逆的解 +统计编码等等。
4、信源符号集合为 {a, b},且 P(a)=, P(b)=; (a )如果对信源进行单字符 H u f f m a n 编码如果对双码字信源进行单字符霍夫曼编a 为 0,b 为 1。
所以平均码长 亦为 1。
(b )如果对信源进行双字符 H u f f m算这时的平均编码长度试多少由题:P(aa)=× =P(ab)=× =P(ba)=× =P(bb)=× =霍夫曼编码如下:aa:0ab:10ba:110bb:111所以平均码长为: L=+× 2+× 3+× 3=5、有信源{A, C, G, T}, 且P(A)=, P(C)=, P(G)=, P(T)=, 试用图示解释消息“CAT ”算术编码和解码的过程。
“CAT”的算术编码示意图如下所示:编码方向1AA0.5C CT0.2GT 0.50.2解码方向图 6、消息“CAT”算术编码过程6、试用互信息的概念解释有失真编码的基本原理。
我们知道信号X 与 Y 的互信息量可以表示为:I (X;Y) H (X)H (X |Y)所谓的无失真编码,可以理解为X=Y ,即我们得到解码器的输出Y 时,就可以确定信源信号为X;而在有失真编码中,当我们得到了输出Y,不一定能确定信源信号就是 X,存在一定的不确定性。
而这不确定的平均值即为条件熵H(X|Y )。
当解压缩后得到输出数据,这时原始数据或信息虽可能与其不同,但是在某种使用情形中输出与输入已经“足够接近”,并可以在允许的误差内使用,也就是条件熵 H(X|Y )足够小时,这种情况下就可以进行有失真编码。
在有失真编码中,我们可以将编码码长设定在最佳码长(即信源熵)之下,进一步缩减平均码长,在不严重影响通信系统效果的前提下减小传输数据量。
7、如何解释或理解率失真定理它在有失真编码领域有何指导意义率失真理论是对于一个给定的信源分布与失真度量,在特定的码率下能达到的最小期望失真,或者说为了满足一定的失真限制,最小描述码率可以是多少。
率失真曲线可以最直白地表明其含义:图 7、率失真曲线横坐标 D 代表失真度,纵坐标率失真函数R(D)表示编码的最低速率。
从图中可以看出,随着失真度 D 逐渐增大,允许的编码最低速率也在逐渐降低,也就是表明在某个失真度标准下,我们的编码速率不能低于相应的R(D),同时 R (D)速率也是最佳的编码速率,可以实现最短的编码码长;当失真度为0 时,就变成了无失真编码,这时纵坐标R(D)表示在无失真最佳编码长度(信源熵H)下的编码速率。
率失真理论为有失真信源编码的性能提供理论极限和比较标准,对具体编码方法的研究有方向指导作用:在设计数据压缩有失真算法时,我们希望将算法的性能曲线尽可能地向率失真函数靠拢,靠得越近,证明算法的效率和性能越好。
8、(a)标量量化与矢量量化的区别是什么各自的优缺点可以从那几个方面进行比较按照量化的维数分,量化分为标量量化和矢量量化。
标量量化是一维的量化,一个幅度对应一个量化结果。
而矢量量化是二维甚至多维的量化,两个或两个以上的幅度决定一个量化结果。
以二维情况为例,两个幅度决定了平面上的一点。
而这个平面事先按照概率已经划分为N 个小区域,通过码书对应着一个输出结果。
由输入确定的那一点落在了哪个区域内,矢量量化器就会输出那个区域对应的码字。
矢量量化的好处是引入了多个决定输出的因素,并且使用了概率的方法,一般会比标量量化效率更高。
标量量化是维数为 1 的矢量量化,一个P 维最佳矢量量化器性能总是优于P 个最佳标量量化器。
在相同的编码速率下,矢量量化的失真更小;而相同的失真条件下,矢量量化的码速率更低;矢量量化的复杂度更高。
标量量化和矢量量化有各自的优缺点,适应于不同的应用环境,主要由各自的量化精度、量化级、量化维度和量化效率来决定最终的量化误差。
(b)对频带宽度为8kHz 的宽带语音信号采用16kHz 采样、每个样点用16bit表示,则其原始编码速率是多少由题可知,原始编码速率V=16000× 16/1024=250Kb/s。