当前位置:文档之家› 信息论与编码理论-第4章无失真信源编码-习题解答-20071202

信息论与编码理论-第4章无失真信源编码-习题解答-20071202

第4章无失真信源编码

习题及其参考答案

4-1 有一信源,它有六个可能的输出,其概率分布如下表所示,表中给出了对应的码A、B、C、D、E和F

(1)求这些码中哪些是唯一可译码;

(2)求哪些码是及时码;

(3)对所有唯一可译码求出其平均码长l。

4-2 设信源

6

126

1

126

()1

()()()

()i

i

s s s

X

p s

p s p s p s

P X

=

⎡⎤

⎡⎤

==

⎢⎥

⎢⎥

⎣⎦⎣⎦

L

L

。对此次能源进行m元唯一

可译编码,其对应的码长为(l1,l2,…,l6)=(1,1,2,3,2,3),求m值的最好下限。(提示:用kraft不等式)

4-3设信源为1

234567

811111111()2

4

8

16

3264128128s

s s s s s s s X p X ⎡⎤

⎡⎤⎢⎥=⎢⎥⎢⎥

⎣⎦⎢

⎥⎣⎦

,编成这样的码:(000,001,010,011,100,101,110,111)。求

(1)信源的符号熵; (2)这种码的编码效率; (3)相应的仙农码和费诺码。 4-4求概率分布为11122

(,,,

,)3551515

信源的二元霍夫曼编码。讨论此码对于概率分布为

11111

(,,,,)55555

的信源也是最佳二元码。 4-5有两个信源X 和Y 如下:

1

234567()0.200.190.180.170.150.100.01X s s s s s s s p X ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦

1

23456789()0.490.140.140.070.070.040.020.020.01Y s s s s s s s s s p Y ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦

(1)用二元霍夫曼编码、仙农编码以及费诺编码对信源X 和Y 进行编码,并计算其平均码长和编码效率;

(2)从X ,Y 两种不同信源来比较三种编码方法的优缺点。

4-6设二元霍夫曼码为(00,01,10,11)和(0,10,110,111),求出可以编得这样 霍夫曼码的信源的所有概率分布。

4-7设信源为1234

5678()0.40.20.10.10.050.050.050.05X s s s s s s s s p X ⎡⎤⎡⎤=⎢⎥⎢⎥⎣⎦⎣⎦

,求其三元霍夫曼编

码。

4-8若某一信源有N 个符号,并且每个符号等概率出现,对这个信源进行二元霍夫曼编码,问当

N =2i 和N =2i +1(i 是正整数)时,每个码值的长度是多少?平均码长是多少?

4-9现有一幅已离散量化后的图像,图像的灰度量化分成8级,如下表所示。表中数字为相应像

素上的灰度级。

(1)不考虑图像的任何统计特性,对图像进行二元等长编码,这幅图像共需要多少个二元符号描述?

(2)若考虑图像的统计特性,求这幅图像的信源熵,并对每个灰度级进行二元霍夫曼编码,问平均每个像素需用多少二元符号表示。

4-10在MPEG中为了提高数据压缩比,采用了____方法。

A.运动补偿与运行估计 B.减少时域冗余与空间冗余

C.帧内图像数据与帧间图像数据压缩 D.向前预测与向后预测

4-11 JPEG中使用了____熵编码方法。

A.统计编码和算术编码

B.PCM编码和DPCM编码

C.预测编码和变换编码

D.哈夫曼编码和自适应二进制算术编码

4-12 简述常用信息编码方法的两类。

4-13 简述等长编码和变长编码的特点,并举例说明。

4-14已知信源X=[x1=0.25,x2=0.25,x3=0.2,x4=0.15,x5=0.10,x6=0.05],试对其进行Huffman编码。4-15已知信源X=[x1=1/4,x2=3/4],若x1=1,x2=0,试对1011进行算术编码。

4-16离散无记忆信源发出A,B,C三种符号,其概率分布为5/9,1/3,1/9,应用算术编码方法对序列CABA进行编码,并对结果进行解码。

4-17给定一个零记忆信源,已知其信源符号集为A={a1,a2}={0,1},符号产生概率为P(a1)=1/4,P(a2)=3/4。对二进制序列11111100,求其二进制算术编码码字。

4-18有四个符号a,b,c,d构成的简单序列S=abdac,各符号及其对应概率如表所示。应用算术编码方法对S进行编码,并对结果进行解码。

符号符号概率p i

a 1/2

b 1/4

c 1/8

d 1/8

4-19简述游程编码的思想和方法。

4-20简述JEPG算法的主要计算步骤,并详细说明每个步骤。

4-21设二元信源的字母概率为P(0)=1/4,P(1)=3/4。若信源输出序列为1011011110110111 (a)对其进行算术编码并计算编码效率。

(b)对其进行LZ编码并计算编码效率。

4-22设有二元信源符号集,输入信源符号序列为

101000110110,

a a a a a a a a a a a a L求其序列的字典编码。4-23一个离散记忆信源A={a,b,c},发出的字符串为bccacbcccccccccccaccca。试用LZ算法对序列编码,给出编码字典及发送码序列。

4-24 用LZ 算法对信源A ={a,b,c }编码,其发送码字序列为:2,3,3,1,3,4,5,10,11,6,10。试据此构建译码字典并译出发送序列。

习题参考答案

4-1:

(1) A 、B 、C 、E 编码是唯一可译码。 (2) A 、C 、E 码是及时码。 (3) 唯一可译码的平均码长如下:

6

1

111111

()3()32416161616A i i i l p s l ===⨯+++++=∑ 码元/信源符号

6

1111111

()123456 2.1252416161616B i i i l p s l ===⨯+⨯+⨯+⨯+⨯+⨯=∑码元/信源符号

61111111

()123456 2.1252416161616C i i i l p s l ===⨯+⨯+⨯+⨯+⨯+⨯=∑码元/信源符号

61

111111

()12()422416161616E i i i l p s l ===⨯+⨯++++⨯=∑码元/信源符号

4-3: (1)

/bit ∑8

i i i=1

H(X)=-p(x )logp(x )

1111111111

=-log -log -log -log -log 22448816163232111111 -log -log -log

646412812812812863

=164

符 (2) 平均码长:

6

1

11111111

()3()3248163264128128i i i l p s l ===⨯+++++++=∑码元/信源符号

所以编码效率:()

0.6615H X l

η== (3) 仙农编码:

费诺码:

4-5:

(1) 霍夫曼编码:

对X 的霍夫曼编码如下:

0.220.1920.1830.1730.1530.140.014 2.72l =⨯+⨯+⨯+⨯+⨯+⨯+⨯=码元/信源符号 7

1()log 2.61i i i H X p p ===∑ 码元/符号

() 2.61

0.95962.72H X l

η=

==

Y 的二元霍夫曼编码:

平均码长:

0.4910.14320.07420.0440.0250.0260.016 2.23l =⨯+⨯⨯+⨯⨯+⨯+⨯+⨯+⨯=码元/信源

9

1

()log 2.31i i i H Y p p ===∑码元/符号

编码效率:() 2.31

0.99142.33H Y l

η=== (2) 仙农编码:

对X 的仙农编码:

平均码长:

0.230.1930.1830.1730.1530.140.017 3.14l =⨯+⨯+⨯+⨯+⨯+⨯+⨯=

码元/信源符

() 2.61

0.83123.14H X l

η=

== 对Y 的仙农编码:

平均编码长度:

0.4920.1420.07420.0450.02620.0260.017 2.89l =⨯+⨯+⨯⨯+⨯+⨯⨯+⨯+⨯=码元/信源符

编码效率:() 2.31

0.79932.89H Y l

η=== (3) 费诺编码: 对X 的费诺编码:

平均编码长度:

0.220.1930.1830.1720.1530.140.014 2.74l =⨯+⨯+⨯+⨯+⨯+⨯+⨯=

码元/信源符号 编码效率:() 2.610.95262.74H X l

η=

== 对Y 进行费诺编码:

平均码长:

0.4910.14230.07420.0440.0250.0260.016 2.33l =⨯+⨯⨯+⨯⨯+⨯+⨯+⨯+⨯=码元/信源

符号

编码效率:() 2.31

0.99142.33H Y l

η=

== (4) 由三种编码的编码效率可知:

仙农编码的编码效率为最低,平均码长最长;霍夫曼编码的编码长度最短,编码效率最高,费诺码居中。

4-7: 由三元编码方式可知:R=D -B=R D-1(K -2)+2

由本题可知D=3,K=8,R=2,所以,首先合并最后两个信源概率,其中一种编码方式如下:

4-16:

符号分布概率:

译码:

46738()0.9292,172996738

572990.36280,8919

0.36280580.6530,59919

5

0.6530590.36280,85999

F u ⎡⎫

=

=∈⎪⎢⎣⎭

∴-

⎡⎫

=∈⎪⎢⎣⎭-

∴-⎡⎫

=∈⎪

⎢⎣⎭-∴-

⎡⎫

=∈⎪⎢⎣⎭-

∴第一字符是:C 第二字符是:A 第二字符是:B

第二字符是:A

所以译码结果是:CABA 4-21: (1)

由题目可知信源符号为: 1011 0111 1011 0111

12

4

124

()

31(1)(0)()()0.0001237

44

1011 0111 1011 0111p s p p ==== 算术码的码长log ()13l p s =-=

由序列S 的分布函数F (S )由二元整树图来计算:

2482103124()1(11)(10111)(1011011111)(1011011110111)(1011011110110111)

3313131311()()()()()()()()()4444444440.35114030.0101100110011

F S p p p p p =-----=-----== 所以算术编码为:0100 0011 0011 平均码长及编码效率如下:

13

0.812516

l =

=码元/符号 ()(1)log (1)(0)log (0)0.8113H S p p p p =--= bit/符号 ()

0.9985H S l

η=

= (2)

由于信源符号集中共有2个元素,因此只需要⎡⎤12log =位二进制数就可以表示其编码,该符号集的编码表如下:

按照分段规则,分段为:1 0 11 01 111 011 0111 短语数为7,可用⎡⎤37log ==n 位来表示段号;

每个信源符号编码长度为1,所以短语长度为:3+1=4,具体编码过程如下:

平均编码长度: 1.7516

l =

=码元/符号

编码效率为:4636.075.18113

.0)(===l

S H η

THANKS !!!

致力为企业和个人提供合同协议,策划案计划书,学习课件等等

打造全网一站式需求

欢迎您的下载,资料仅供参考

信息论与编码理论习题答案

信息论与编码理论习题 答案 LG GROUP system office room 【LGA16H-LGYY-LGUA8Q8-LGA162】

第二章 信息量和熵 八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它的信息速 率。 解:同步信息均相同,不含信息,因此 每个码字的信息量为 2?8log =2?3=6 bit 因此,信息速率为 6?1000=6000 bit/s 掷一对无偏骰子,告诉你得到的总的点数为:(a) 7; (b) 12。问各得到多少信息 量。 解:(1) 可能的组合为 {1,6},{2,5},{3,4},{4,3},{5,2},{6,1} )(a p =366=6 1 得到的信息量 =) (1 log a p =6log = bit (2) 可能的唯一,为 {6,6} )(b p =361 得到的信息量=) (1 log b p =36log = bit 经过充分洗牌后的一副扑克(52张),问: (a) 任何一种特定的排列所给出的信息量是多少? (b) 若从中抽取13张牌,所给出的点数都不相同时得到多少信息量? 解:(a) )(a p =! 521 信息量=) (1 log a p =!52log = bit (b) ? ??????花色任选种点数任意排列 13413!13 )(b p =13 52134!13A ?=1352 13 4C 信息量=1313 52 4log log -C = bit 随机掷3颗骰子,X 表示第一颗骰子的结果,Y 表示第一和第二颗骰子的点数之和, Z 表示3颗骰子的点数之和,试求)|(Y Z H 、)|(Y X H 、),|(Y X Z H 、 )|,(Y Z X H 、)|(X Z H 。

信息论与编码答案傅祖芸

信息论与编码答案傅祖芸 【篇一:信息论与编码课程设计报告】 t>设计题目:统计信源熵与香农编码 专业班级学号学生姓名指导教师教师评分 2014年3月24日 目录 一、设计任务与要求................................................. 2 二、设计思路....................................................... 2 三、设计流程图..................................................... 3 四、程序运行及结果................................................. 5 五、心得体会....................................................... 6 参考文 献 .......................................................... 6 附录:源程序.. (7) 一、设计任务与要求 1、统计信源熵 要求:统计任意文本文件中各字符(不区分大小写)数量,计算字 符概率,并计算信源熵。 2、香农编码 要求:任意输入消息概率,利用香农编码方法进行编码,并计算信 源熵和编码效率。 二、设计思路 1、统计信源熵: 统计信源熵就是对一篇英文文章(英文字母数为n),通过对其中 的a,b,c,d/a,b,c,d.....(不区分大小写)统计每个字母的个数n,有这个 公式p=n/n可得每个字母的概率,最后又信源熵计算公式h(x)=??p(xi)logp(xi) i?1n , 可计算出信源熵h,所以整体步骤就是先统计出英文段落的总字符数,在统计每个字符的个数,即每遇到同一个字符就++1,直到算出每个 字符的个数,进而算出每个字符的概率,再由信源熵计算公式计算 出信源熵。 2、香农编码: 香农编码主要通过一系列步骤支出平均码长与信源之间的关系,同 时使平均码长达到极限值,即选择的每个码字的长度ki满足下式: i(xi)?ki?i(xi)?1,?i

(完整版)信息论与编码-曹雪虹-课后习题答案

《信息论与编码》-曹雪虹-课后习题答案 第二章 2.1一个马尔可夫信源有3个符号{}1, 23,u u u ,转移概率 为:()1 1 |1/2p u u =,()2 1|1/2p u u =,()31|0p u u =,()12|1/3p u u =, ()22|0p u u =,()32|2/3p u u =,()13|1/3p u u =,()23|2/3p u u =,()33|0p u u =, 画出状态图并求出各符号稳态概率。 解:状态图如下 状态转移矩阵为: 1/21/2 01/302/31/32/30p ⎛⎫ ⎪= ⎪ ⎪⎝⎭ 设状态u 1,u 2,u 3稳定后的概率分别为W 1,W 2、W 3 由1231WP W W W W =⎧⎨++=⎩得1231132231231 112331223231 W W W W W W W W W W W W ⎧++=⎪⎪⎪+=⎪⎨⎪=⎪⎪⎪++=⎩计算可得1231025925625W W W ⎧=⎪⎪⎪ =⎨ ⎪ ⎪=⎪⎩

2.2 由符号集{0,1}组成的二阶马尔可夫链,其转移概率为:(0|00)p =0.8,(0|11)p =0.2,(1|00)p =0.2,(1|11)p =0.8, (0|01)p =0.5,(0|10)p =0.5,(1|01)p =0.5,(1|10)p =0.5。画出 状态图,并计算各状态的稳态概率。 解:(0|00)(00|00)0.8p p == (0|01)(10|01)0.5p p == (0|11)(10|11)0.2p p == (0|10)(00|10)0.5p p == (1|00)(01|00)0.2p p == (1|01)(11|01)0.5p p == (1|11)(11|11)0.8p p == (1|10)(01|10)0.5p p == 于是可以列出转移概率矩阵:0.80.20 0000.50.50.50.500000.20.8p ⎛⎫ ⎪ ⎪= ⎪ ⎪⎝⎭ 状态图为: 设各状态00,01,10,11的稳态分布概率为W 1,W 2,W 3,W 4 有 41 1i i WP W W ==⎧⎪⎨=⎪⎩∑ 得 131 132 24324412340.80.50.20.50.50.20.50.81W W W W W W W W W W W W W W W W +=⎧⎪+=⎪⎪+=⎨⎪+=⎪+++=⎪⎩ 计算得到123451417175 14W W W W ⎧=⎪⎪ ⎪=⎪⎨ ⎪=⎪⎪⎪= ⎩

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源 1.1同时掷一对均匀的子,试求: (1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵; (5)“两个点数中至少有一个是1”的自信息量。 解: bit P a I N n P bit P a I N n P c c N 17.536log log )(361 )2(17.418log log )(362)1(36 662221111 616==-=∴====-=∴== =?==样本空间: (3)信源空间: bit x H 32.436log 36 62log 3615)(=??+?? =∴ (4)信源空间: bit x H 71.3636 log 366536log 3610 436log 368336log 366236log 36436log 362)(=??+?+?+??= ∴++ (5) bit P a I N n P 17.11136 log log )(3611333==-=∴==

1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格。 (1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。 解: bit a P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481 )(:)1(48 1 i i i i i ==-=∴=-=∴= ∑=落入任一格的概率 bit b P b P b b P b I b P A i 55.547log )(log )()(H 47 log )(log )(47 1 )(:B ,)2(48 1i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知 bit AB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()() (log )(47 1 481)()3(47481 =?=-=-=∴?=∑?=是同时落入某两格的概率 1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。问这两个回答中各含有多少信息量?平均每个回答中各含有多少信息量?如果你问一位女士,则她的答案中含有多少平均信息量? 解: bit w P w P w P w P m m P m I w P w I bit m P m P m P m P m bit m P m I bit m P m I n n y y n n y y n n y y n n y y 0454.0log99.5%99.5%-log0.5%-0.5% )(log )()(log )()(H % 5.99log )(log )(%5.0log )(log )(36 6.0log93%93%-log7%-7% )(log )()(log )()(H 105.0%93log )(log )(84.3%7log )(log )(: =??=?-?-=-=-=-=-==??=?-?-==-=-==-=-=平均每个回答信息量::回答“不是”的信息量回答“是”的信息量:对于女: 平均每个回答信息量::回答“不是”的信息量回答“是”的信息量:对于男士

信息论与编码试卷及答案

一、(11’)填空题 (1)1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 (2)必然事件的自信息是0 。 (3)离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的N倍。(4)对于离散无记忆信源,当信源熵有最大值时,满足条件为__信源符号等概分布_。 (5)若一离散无记忆信 源的信源熵H(X) 等于2.5,对信源 进行等长的无失真 二进制编码,则编 码长度至少为 3 。 (6)对于香农编码、费诺编码和霍夫曼编码,编码方法惟一的是香农编码。(7)已知某线性分组码的最小汉明距离为3,那么这组码最多能检测出_2_______个码元错误,最多能纠正___1__个码元错误。 (8)设有一离散无记忆平稳信道,其信道容量为C,只要待传送的信息传输率R__小于___C(大于、小于或者等于), 则存在一种编码,当输入序列长度n足够大,使译码错误概率任意小。 (9)平均错误概率不仅与信道本身的统计特性有关,还与___译码规则____________和___编码方法___有关 二、(9')判断题 (1)信息就是一种消息。(?) (2)信息论研究的主要问题是在通信系统设计中如何实现信息传输、存储和处理的有效性和可靠性。(√) (3)概率大的事件自信息量大。(?) (4)互信息量可正、可负亦可为零。(√) (5)信源剩余度用来衡量信源的相关性程度,信源剩余度大说明信源符号间的依赖关系较小。 (?)

(6) 对于固定的信源分布,平均互信息量是信道传递概率的下凸函数。 ( √ ) (7) 非奇异码一定是唯一可译码,唯一可译码不一定是非奇异码。 ( ? ) (8) 信源变长编码的核心问题是寻找紧致码(或最佳码),霍夫曼编码方法构造的是最佳码。 ( √ ) (9)信息率失真函数R(D)是关于平均失真度D 的上凸函数. ( ? ) 三、(5')居住在某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的, 而女孩中身高1.6米以上的占总数的一半。 假如我们得知“身高1.6米以上的某女孩是大学生”的消息,问获得多少信息量? 解:设A 表示“大学生”这一事件,B 表示“身高1.60以上”这一事件,则 P(A)=0.25 p(B)=0.5 p(B|A)=0.75 (2分) 故 p(A|B)=p(AB)/p(B)=p(A)p(B|A)/p(B)=0.75*0.25/0.5=0.375 (2分) I(A|B)=-log0.375=1.42bit (1分) 四、(5')证明:平均互信息量同信息熵之间满足 I(X;Y)=H(X)+H(Y)-H(XY) 证明: ()()() () ()()()() ()() Y X H X H y x p y x p x p y x p x p y x p y x p Y X I X X Y j i j i Y i j i X Y i j i j i -=??? ???---==∑∑∑∑∑∑log log log ; (2分) 同理 ()()() X Y H Y H Y X I -=; (1分) 则

信息论与编码理论课后答案

信息论与编码理论课后答案 【篇一:《信息论与编码》课后习题答案】 式、含义和效用三个方面的因素。 2、 1948年,美国数学家香农发表了题为“通信的数学理论”的长 篇论文,从而创立了信息论。 3、按照信息的性质,可以把信息分成语法信息、语义信息和语用 信息。 4、按照信息的地位,可以把信息分成客观信息和主观信息。 5、人们研究信息论的目的是为了高效、可靠、安全地交换和利用 各种各样的信息。 6、信息的是建立信息论的基础。 7、 8、是香农信息论最基本最重要的概念。 9、事物的不确定度是用时间统计发生概率的对数来描述的。 10、单符号离散信源一般用随机变量描述,而多符号离散信源一般 用随机矢量描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量, 定义为其发生概率对数的负值。 12、自信息量的单位一般有比特、奈特和哈特。 13、必然事件的自信息是。 14、不可能事件的自信息量是 15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。 16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。 17、离散平稳无记忆信源x的n次扩展信源的熵等于离散信源x的 熵的。 limh(xn/x1x2?xn?1)h?n???18、离散平稳有记忆信源的极限熵,。 19、对于n元m阶马尔可夫信源,其状态空间共有m个不同的状态。 20、一维连续随即变量x在[a,b] 。 1log22?ep 21、平均功率为p的高斯分布的连续信源,其信源熵,hc(x)=2。

22、对于限峰值功率的n维连续信源,当概率密度均匀分布时连续信源熵具有最大值。 23、对于限平均功率的一维连续信源,当概率密度 24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值p和信源的熵功率p 25、若一离散无记忆信源的信源熵h(x)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为。 27 28、同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和5同时出现”这件事的自信息量是 ?mn?ki?1 1?mp(x)?em29、若一维随即变量x的取值区间是[0,∞],其概率密度函数为,其中:x?0,m是x的数学 2期望,则x的信源熵c。 30、一副充分洗乱的扑克牌(52张),从中任意抽取1张,然后放回,若把这一过程看作离散无记忆信源,则其信 2源熵为。 31信道。 32、信道的输出仅与信道当前输入有关,而与过去输入无关的信道称为 33、具有一一对应关系的无噪信道的信道容量。 34、强对称信道的信道容量。 35、对称信道的信道容量。 36、对于离散无记忆信道和信源的n次扩展,其信道容量cn= 。xh(x)?logmelog52 37、对于n个对立并联信道,其信道容量 cn = 。 38、多用户信道的信道容量用多维空间的一个区域的界限来表示。 39、多用户信道可以分成几种最基本的类型:多址接入信道、广播信道和相关信源信道。 40、广播信道是只有一个输入端和多个输出端的信道。 41、当信道的噪声对输入的干扰作用表现为噪声和输入的线性叠加时,此信道称为加性连续信道。 ?ck?1nk p1log2(1?x)2pn。 42、高斯加性信道的信道容量c= 43、信道编码定理是一个理想编码的存在性定理,即:信道无失真传递信息的条件是信息率小于信道容量。 ?1/21/20??0?01??代表的信道的信道容量。 44、信道矩阵 ?10??10????01??代表的信道的信道容量。 45、信道矩阵?

信息论与编码理论-第4章无失真信源编码-习题解答-20071202

第4章无失真信源编码 习题及其参考答案 4-1 有一信源,它有六个可能的输出,其概率分布如下表所示,表中给出了对应的码A、B、C、D、E和F (1)求这些码中哪些是唯一可译码; (2)求哪些码是及时码; (3)对所有唯一可译码求出其平均码长l。 4-2 设信源 6 126 1 126 ()1 ()()() ()i i s s s X p s p s p s p s P X = ?? ?? == ?? ?? ???? ∑ 。对此次能源进行m元唯一 可译编码,其对应的码长为(l1,l2,…,l6)=(1,1,2,3,2,3),求m值的最好下限。(提示:用kraft不等式) 4-3设信源为 12345678 11111111 () 248163264128128 s s s s s s s s X p X ?? ???? = ???? ???? ?? ,编成这样的码:(000,001, 010,011,100,101,110,111)。求(1)信源的符号熵; (2)这种码的编码效率; (3)相应的仙农码和费诺码。 4-4求概率分布为 11122 (,,,,) 3551515 信源的二元霍夫曼编码。讨论此码对于概率分布为 11111 (,,,,) 55555 的信源也是最佳二元码。 4-5有两个信源X和Y如下: 1

2 1 234567()0.200.190.180.170.150.100.01X s s s s s s s p X ????=???????? 123456789()0.490.140.140.070.070.040.020.020.01Y s s s s s s s s s p Y ????=???????? (1)用二元霍夫曼编码、仙农编码以及费诺编码对信源X 和Y 进行编码,并计算其平均码长和编码效率; (2)从X ,Y 两种不同信源来比较三种编码方法的优缺点。 4-6设二元霍夫曼码为(00,01,10,11)和(0,10,110,111),求出可以编得这样 霍夫曼码的信源的所有概率分布。 4-7设信源为1 2345678()0.40.20.10.10.050.050.050.05X s s s s s s s s p X ????=???????? ,求其三元霍夫曼编 码。 4-8若某一信源有N 个符号,并且每个符号等概率出现,对这个信源进行二元霍夫曼编码,问当N =2i 和N =2i +1(i 是正整数)时,每个码值的长度是多少?平均码长是多少? 4-9现有一幅已离散量化后的图像,图像的灰度量化分成8级,如下表所示。表中数字为相应像素上的灰度级。 (1)不考虑图像的任何统计特性,对图像进行二元等长编码,这幅图像共需要多少个二元符号描述? (2)若考虑图像的统计特性,求这幅图像的信源熵,并对每个灰度级进行二元霍夫曼编码,问平均每个像素需用多少二元符号表示。 4-10在MPEG 中为了提高数据压缩比,采用了____方法。 A .运动补偿与运行估计 B.减少时域冗余与空间冗余 C .帧内图像数据与帧间图像数据压缩 D.向前预测与向后预测

信息论与编码习题解答

信息论与编码习题解答 第一章 1.一位朋友很不赞成“通信的目的是传送信息”及“消息中未知的成分才算是信息”这些说法。他举例说:我多遍地欣赏梅兰芳大师的同一段表演,百看不厌,大师正在唱的正在表演的使我愉快,将要唱的和表演的我都知道,照你们的说法电视里没给我任何信息,怎么能让我接受呢?请从信息论的角度对此做出解释。(主要从狭义信息论与广义信息论研究的内容去理解和解释) 答:从狭义信息论角度,虽然将要表演的内容观众已知,但是每一次演出不可能完全相同。而观众在欣赏的同时也在接受着新的感官和视听享受。从这一角度来说,观众还是可以得到新的信息的。另一种解释可以从广义信息论的角度来分析,它涉及了信息的社会性、实用性等主观因素,同时受知识水平、文化素质的影响。京剧朋友们在欣赏京剧时也因为主观因素而获得了享受,因此属于广义信息论的范畴。 2.利用下图(图1.2)所示的通信系统分别传送同样时间(例如十分钟)的重大新闻公告和轻音乐,它们在接收端各方框的输入中所含的信息是否相同,为什么? 图1.2 通信系统的一般框图 答:重大新闻是语言,频率为300~3400Hz,而轻音乐的频率为20~20000Hz。同样的时间内轻音乐的采样编码的数据要比语音的数据量大,按码元熵值,音乐的信息量要比新闻大。但是在信宿端,按信息的不确定度,信息量就应分别对待,对于新闻与音乐的信息量大小在广义上说,因人而异。

第二章 1.一珍珠养殖场收获240颗外观及重量完全相同的特大珍珠,但不幸被人用外观相同但重量仅有微小差异的假珠换掉1颗。(1)一人随手取出3颗,经测量恰好找出了假珠,问这一事件大约给出了多少比特的信息量;(2)不巧假珠又滑落进去,那人找了许久却未找到,但另一人说他用天平最多6次能找出,结果确是如此,问后一事件给出多少信息量;(3)对上述结果作出解释。 解:(1)从240颗珍珠中取3颗,其中恰好有1颗假珠的概率为: 2 2393240 239! 2!237!240!3!237! 11/80240/3 C P C ??= == = 所以,此事件给出的信息量为:I = – log 2P = log 280=6.32 (bit) (2)240颗中含1颗假珠,用天平等分法最多6次即可找到假珠,这是一个必然事件,因此信息量为0。 (3)按照Shannon 对信息量的定义,只在事件含有不确定成分,才有信息量,并且不确定成分越大,信息量也越大,必然事件则没有信息量。但是从广义信息论的角度,如果那个人不知道用天平二分法找假珠,另一个告诉他这个方法,使他由不知道到知道,也应该含有一定的信息量。 2.每帧电视图像可以认为是由3?105个象素组成,所有象素均独立变化,且每一象素又取128个不同的亮度电平,并设亮度电平等概率出现。问每帧图像含有多少信息量?如果一个广播员在约10000个汉字的字汇中选取1000个字来口述此电视图像,试问广播员描述此图像所广播的信息量是多少(假设汉字字汇是等概率分布,且彼此独立)?若要恰当地描述此图像,广播员在口述中至少需用多少汉字? 解:由于每一象素取128个不同的亮度电平,各个亮度电平等概率出现。因此每个亮度电平包含的信息量为 I (X ) = – lb(1/128)=lb128=7 bit/像素 每帧图像中像素均是独立变化的,因此每帧图像信源就是离散亮度电平信源的无记忆N 次扩展。由此,每帧图像包含的信息量为 I (X N ) = NI (X )= 3?105?7 =2.1?106 bit/帧 广播员在约10000个汉字中选取字汇来口述此电视图像,各个汉字等概分布,因此每个汉字包含的信息量为 I (Y) = – lb(1/10000)=lb1000=13.29 bit/字 广播员述电视图像是从这个汉字字汇信源中独立地选取1000个字进行描述,因此广播员描述此图像所广播的信息量是 I (Y N ) = NI (Y )= 1000?13.29 =1.329 ?104 bit/字 由于口述一个汉字所包含的信息量为I (Y),而一帧电视图像包含的信息量是I (X N ),因此广播员要恰当地描述此图像,需要的汉字数量为: 65() 2.110 1.5810() 13.29 N I X I Y ?= =?字 3.已知 X : 1, 0 P (X ): p , 1 – p (1)求证:H (X ) = H (p )

信息论与编码理论-习题答案-姜楠-王健-编著-清华大学

第1章 绪论 1.1 信源、编码器、信道、干扰、译码器、信宿 1.2 香农 1.3 通信系统模型 1.4 信号是消息的表现形式,是物理的,比如电信号、光信号等。消息是信息的载荷者,是信号的具体内容,不是物理的,但是又比较具体,例如语言、文字、符号、图片等。信息包含在消息中,是通信系统中被传送的对象,消息被人的大脑所理解就形成了信息。 1.5 略 第2章 信息的统计度量 2.1 少 2.2 y 的出现有助于肯定x 的出现、y 的出现有助于否定x 的出现、x 和y 相互独立 2.3 FTTTF 2.4 2.12比特 2.5 依题意,题中的过程可分为两步,一是取出一枚硬币恰好是重量不同的那一枚,设其发生的概率为1p ,由于每枚硬币被取出的概率是相同的,所以 1181 p = 所需要的信息量 ()()1log 6.34I A p bit =-= 二是确定它比其他硬币是重还是轻,设其发生的概率为2p ,则 212p = 总的概率 12111812162p p p == ⨯= 所需要的信息量 ()log log1627.34I p bit =-== 2.6 设A 表示“大学生”这一事件,B 表示“身高1.60m 以上”这一事件,则 ()()()0.25 0.5 |0.75p A p B p B A === 故 ()()() ()()() |0.750.25 |0.3750.5 p AB p A p B A p A B p B p B ⨯= = = =

()()()11 |log log 1.42|0.375 I A B bit p A B === 2.7 四进制波形所含的信息量为()log 42bit =,八进制波形所含信息量为()log 83bit =,故四进制波形所含信息量为二进制的2倍,八进制波形所含信息量为二进制的3倍。 2.8 ()()()()()()2322log 3log 32log 3 1.585 I p bit I p bit I I =-=-== 故以3为底的信息单位是比特的1.585倍。 2.9 (1)J 、Z (2)E (3)X 2.10 (1)两粒骰子向上面的小圆点数之和为3时有(1, 2)和(2, 1)两种可能性,总的组合数为 116636C C ⨯=,则圆点数之和为3出现的概率为 321 3618p = = 故包含的信息量为 ()()31 3log log 4.1718I p bit =-=-= (2)小圆点数之和为7的情况有(1, 6), (6, 1), (2, 5), (5, 2), (3, 4), (4, 3),则圆点数之和为7出现的概率为 761366p = = 故包含的信息量为 ()()71 7log log 2.5856I p bit =-=-= 2.11 对于男性,是红绿色盲的概率记作()17%p a =,不是红绿色盲的概率记作()293%p a =, 这两种情况各含的信息量为 ()()()11100 log 1log 3.837I a p a bit ===⎡⎤⎣⎦ ()()()22100 log 1log 0.10593I a p a bit ===⎡⎤⎣⎦ 平均每个回答中含有的信息量为 ()()()()()()1122793 log 1log 1 3.830.1050.366100100H A p a p a p a p a bit =+= ⨯+⨯=⎡⎤⎡⎤⎣⎦⎣⎦ 对于女性,是红绿色盲的概率记作()10.5%p b =,不是红绿色盲的概率记作()299.5%p b =,则平均每个回答中含有的信息量为 ()()()()()()1122log 1log 1510009951000 log log 1000510009950.045H B p b p b p b p b bit =+⎡⎤⎡⎤⎣⎦⎣⎦= ⨯+⨯=

信息论与编码试题集与答案考试必看

信息论与编码试题集与答案考试必看 信息论与编码试题集与答案考试必看在无失真的信源中,信源输出由H(X)来度量; 在有失真的信源中,信源输出由R(D)来度量。 1.要使通信系统做到传输信息有效、可靠和保密,必须首先信源编码,然后_____加密____编码,再______信道 _____编码,最后送入信道。 2.带限AWGN波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公式是; 当归一化信道容量C/W趋近于零时,也即信道完全丧失了通信能力,此时Eb/N0为-1.6dB,我们将它称作香农限,是一切编码方式所能达到的理论极限。 3.保密系统的密钥量越小,密钥熵H(K)就越小,其密文中含有的关于明文的信息量I(M; C)就越大。 4.已知n=7的循环码,则信息位长度k为3,校验多项式h(x)=。 5.设输入符号表为X={0,1},输出符号表为Y={0,1}。输入信号的概率分布为p=(1/2,1/2),失真函数为d(0,0)=d(1,1)=0,d(0,1)=2,d(1,0)=1,则Dmin=0,R(Dmin)=1bit/symbol,相应的编码器转移概率矩阵[p(y/x)]=; Dmax=0.5,R(Dmax)=0,相应的编码器转移概率矩阵

[p(y/x)]=。 6.已知用户A的RSA公开密钥(e,n)=(3,55),,则40,他的秘密密钥(d,n)=(27,55)。若用户B向用户A发送m=2的加密消息,则该加密后的消息为8。 二、判断题1.可以用克劳夫特不等式作为唯一可译码存在的判据。 (Ö) 2.线性码一定包含全零码。 (Ö) 3.算术编码是一种无失真的分组信源编码,其基本思想是将一定精度数值作为序列的编码,是以另外一种形式实现的最佳统计匹配编码。 (×) 4.某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。 (×) 5.离散平稳有记忆信源符号序列的平均符号熵随着序列长度L的增大而增大。 (×) 6.限平均功率最大熵定理指出对于相关矩阵一定的随机矢量X,当它是正态分布时具有最大熵。 (Ö) 7.循环码的码集中的任何一个码字的循环移位仍是码

信息论与编码试题集与答案

一填空题(本题20分,每小题2分) 1、平均自信息为 表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。 平均互信息 表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。 2、最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。 3、最大熵值为。 4、通信系统模型如下: 5、香农公式为为保证足够大的信道容量,可采用(1)用频带换信噪比;(2)用信噪比换频带。 6、只要,当N足够长时,一定存在一种无失真编码。 7、当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 8、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。 9、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。

按照信息的地位,可以把信息分成 客观信息和主观信息 。 人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的信息。 信息的 可度量性 是建立信息论的基础。 统计度量 是信息度量最常用的方法。 熵 是香农信息论最基本最重要的概念。 事物的不确定度是用时间统计发生 概率的对数 来描述的。 10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。 12、自信息量的单位一般有 比特、奈特和哈特 。 13、必然事件的自信息是 0 。 14、不可能事件的自信息量是 ∞ 。 15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。 16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。 17、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 。 18、离散平稳有记忆信源的极限熵,=∞H )/(lim 121-∞→N N N X X X X H 。 19、对于n 元m 阶马尔可夫信源,其状态空间共有 nm 个不同的状态。 20、一维连续随即变量X 在[a ,b]区间内均匀分布时,其信源熵为 log2(b-a ) 。 21、平均功率为P 的高斯分布的连续信源,其信源熵,Hc (X )=eP π2log 212。 22、对于限峰值功率的N 维连续信源,当概率密度 均匀分布 时连续信源熵具有最大值。 23、对于限平均功率的一维连续信源,当概率密度 高斯分布 时,信源熵有最大值。 24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值P 和信源的熵功

信息论与编码试卷及答案2

信息论与编码试卷及答案2 篇一:信息论与编码试卷及答案 一、概念简答题(每题5分,共40分) 1.什么是平均自信息量与平均互信息,比较一下这两个概念的异同? 2.简述最大离散熵定理。对于一个有m个符号的离散信源,其最大熵是多少? 3.解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系? 4.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。 5.写出香农公式,并说明其物理意义。当信道带宽为5000Hz,信噪比为30dB时求信道容量。 6.解释无失真变长信源编码定理。 7.解释有噪信道编码定理。 8.什么是保真度准则?对二元信源 时率失真函数的和?,其失真矩阵,求a>0二、综合题(每题10分,共60分) 1.黑白气象传真图的消息只有黑色和白色两种,求: 1)黑色出现的概率为,白色出现的概率为。给出这个只有两个符号的信源X的数学模型。假设图上黑白消息出现前后没有关联,

求熵; 2)假设黑白消息出现前后有关联,其依赖关系为:, ,求其熵;, , 2.二元对称信道如图。 ; 1)若,,求和; 2)求该信道的信道容量和最佳输入分布。 3.信源空间为 曼码,计算其平均码长和编码效率。 ,试分别构造二元和三元霍夫 4.设有一离散信道,其信道传递矩阵为,并设,试分别按最小错误概率准则与最大似然译码准则确定译码规则,并计算相应的平均错误概率。 5.已知一(8,5)线性分组码的生成矩阵为。 求:1)输入为全00011和10100时该码的码字;2)最小码距。 6.设某一信号的信息传输率为/s,在带宽为4kHz的高斯信道中传输,噪声功率谱NO=5×10-6mw/Hz。试求: (1)无差错传输需要的最小输入功率是多少? (2)此时输入信号的最大连续熵是多少?写出对应的输入概率密度函数的形式。 一、概念简答题(每题5分,共40分)

信息论与编码试题集与答案

1. 在无失真的信源中,信源输出由 H (X ) 来度量;在有失真的信源中,信源输出由 R (D ) 来度量。 2. 要使通信系统做到传输信息有效、可靠和保密,必须首先 信源 编码, 然后_____加密____编码,再______信道_____编码,最后送入信道。 3. 带限AWGN 波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公式是log(1)C W SNR =+;当归一化信道容量C/W 趋近于零时,也即信道完全丧失了通信能力,此时E b /N 0为 -1.6 dB ,我们将它称作香农限,是一切编码方式所能达到的理论极限。 4. 保密系统的密钥量越小,密钥熵H (K )就越 小 ,其密文中含有的关于明文的信息量I (M ;C )就越 大 。 5. 已知n =7的循环码42()1g x x x x =+++,则信息位长度k 为 3 ,校验多项式 h(x)= 3 1x x ++ 。 6. 设输入符号表为X ={0,1},输出符号表为Y ={0,1}。输入信号的概率分布为p =(1/2,1/2),失真函数为d (0,0) = d (1,1) = 0,d (0,1) =2,d (1,0) = 1,则D min = 0 ,R (D min )= 1bit/symbol ,相应的编码器转移概率矩阵[p(y/x )]=1001⎡⎤ ⎢⎥⎣⎦ ;D max = 0.5 ,R (D max )= 0 ,相应的编码器转移概率矩阵[p(y/x )]=1010⎡⎤ ⎢ ⎥⎣⎦ 。 7. 已知用户A 的RSA 公开密钥(e,n )=(3,55),5,11p q ==,则()φn = 40 ,他的秘密密钥(d,n )=(27,55) 。若用户B 向用户A 发送m =2的加密消息,则该加密后的消息为 8 。 四、计算题 1.已知(),X Y 的联合概率(),p x y 为: 求()H X ,()H Y ,(),H X Y ,();I X Y 解: (0)2/3p x == (1)1/3p x == (0)1/3p y == (1)2/3 p y == ()()(1/3,2/3)H X H Y H ===0.918 bit/symbol (),(1/3,1/3,1/3)H X Y H ==1.585 bit/symbol ();()()(,)I X Y H X H Y H X Y =+-=0.251 bit/symbol 2.某系统(7,4)码 )()(01201230123456c c c m m m m c c c c c c c ==c 其三位校验 位与信息位的关系为: 2310 13210 210c m m m c m m m c m m m =++⎧⎪ =++⎨⎪=++⎩ 01 X Y 011/31/30 1/3

信息论与编码考试题(附答案版)

1.按发出符号之间的关系来分,信源可以分为(有记忆信源)和(无记忆信源) 2.连续信源的熵是(无穷大),不再具有熵的物理含义。 3.对于有记忆离散序列信源,需引入(条件熵)描述信源发出的符号序列内各个符号之间的统计关联特性 3.连续信源X,平均功率被限定为P时,符合(正态)分布才具有最大熵,最大熵是(1/2ln (2πⅇσ2))。 4.数据处理过程中信息具有(不增性)。 5.信源冗余度产生的原因包括(信源符号之间的相关性)和(信源符号分布的不均匀性)。 6.单符号连续信道的信道容量取决于(信噪比)。 7.香农信息极限的含义是(当带宽不受限制时,传送1bit信息,信噪比最低只需-1.6ch3)。 8.对于无失真信源编码,平均码长越小,说明压缩效率(越高)。 9.对于限失真信源编码,保证D的前提下,尽量减少(R(D))。 10.立即码指的是(接收端收到一个完整的码字后可立即译码)。 11.算术编码是(非)分组码。 12.游程编码是(无)失真信源编码。 13.线性分组码的(校验矩阵)就是该码空间的对偶空间的生成矩阵。 14.若(n,k)线性分组码为MDC码,那么它的最小码距为(n-k+1)。 15.完备码的特点是(围绕2k个码字、汉明矩d=[(d min-1)/2]的球都是不相交的每一个接受吗字都落在这些球中之一,因此接收码离发码的距离至多为t,这时所有重量≤t的差错图案都能用最佳译码器得到纠正,而所有重量≤t+1的差错图案都不能纠正)。 16.卷积码的自由距离决定了其(检错和纠错能力)。 (对)1、信息是指各个事物运动的状态及状态变化的方式。

(对)2、信息就是信息,既不是物质也不是能量。 (错)3、马尔可夫信源是离散无记忆信源。 (错)4、不可约的马尔可夫链一定是遍历的。 (对)5、单符号连续信源的绝对熵为无穷大。 (错)6、序列信源的极限熵是这样定义的:H(X)=H(XL|X1,X2,…,XL-1)。 (对)7、平均互信息量I(X;Y)是接收端所获取的关于发送端信源X的信息量。(对)8、信源X,经过处理后,输出为Y,H(Y)小于H(X),说明信息不增。 (对)9、如果一个消息包含的符号比表达这个消息所需要的符号多,那么该消息存在冗余度。 (错)10、有噪无损离散信道的输入为X,输出为Y,那么其信道容量C=maxH(Y)。(错)11、非高斯噪声信道的信道容量比高斯噪声信道的信道容量小。 (对)12、信息率失真函数具有单调递减性。 (错)13、异前缀码不能及时可译。 (对)14、用码树构造的一定是及时码。 (对)15、香农编码压缩了符号相关造成的冗余。 (对)16、有失真信源编码指的是保真度准则下的信源编码。 (对)17、变长无失真信源编码比定长编码的编码效率高。 (错)18、香农编码是最佳编码。 (对)19、卷积、交织都可以达到差错随机化的目的。。 (错)20、卷积码的序列距离决定了其检错和纠错能力。 信息、消息、信号的定义是什么?三者的关系是什么? 答:定义:信息是指各个事物运动的状态及状态变化的方式。 消息是指包含信息的语言、文字和图像。 信号是消息的物理体现。

信息论与编码-曹雪虹-第四章-课后习题答案

4.2 某二元信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡2/12/110)(X P X 其失真矩阵为 ⎥⎦⎤⎢⎣⎡=a a D 00求这信源的D max 和D min 和R(D)函数。 解: 0021021),(min )(202121),()(min min min max =⨯+⨯===⨯+⨯===∑∑i j i j i i j i i j j y x d x p D a a y x d x p D D 因为二元等概信源率失真函数: ⎪⎭⎫ ⎝⎛-=a D H n D R ln )( 其中n = 2, 所以率失真函数为: ⎥⎦⎤⎢⎣⎡⎪⎭⎫ ⎝⎛-⎪⎭⎫ ⎝⎛-+-=a D a D a D a D D R 1ln 1ln 2ln )( 4.3 一个四元对称信源⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣ ⎡4/14/1324/14/110)(X P X ,接收符号Y = {0, 1, 2, 3},其失真矩阵为⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣ ⎡0111101111011110,求D max 和D min 及信源的R(D)函数,并画出其曲线(取4至5个点)。 解: 0041041041041),(min )(43041141141141),()(min min min max =⨯+⨯+⨯+⨯===⨯+⨯+⨯+⨯===∑∑i j i j i i j i i j j y x d x p D y x d x p D D 因为n 元等概信源率失真函数: ⎪⎭⎫ ⎝⎛-⎪⎭⎫ ⎝⎛-+-+=a D a D n a D a D n D R 1ln 11ln ln )( 其中a = 1, n = 4, 所以率失真函数为: ()()D D D D D R --++=1ln 13ln 4ln )( 函数曲线:

相关主题
文本预览
相关文档 最新文档