当前位置:文档之家› 信息论第二章答案

信息论第二章答案

信息论第二章答案
信息论第二章答案

试问四进制、八进制脉冲所含信息量是二进制脉冲的多少倍

解:

四进制脉冲可以表示4个不同的消息,例如:{0, 1, 2, 3}

八进制脉冲可以表示8个不同的消息,例如:{0, 1, 2, 3, 4, 5, 6, 7} 二进制脉冲可以表示2个不同的消息,例如:{0, 1} 假设每个消息的发出都是等概率的,则:

四进制脉冲的平均信息量symbol bit n X H / 24log log )(1=== 八进制脉冲的平均信息量symbol bit n X H / 38log log )(2=== 二进制脉冲的平均信息量symbol bit n X H / 12log log )(0=== 所以:

四进制、八进制脉冲所含信息量分别是二进制脉冲信息量的2倍和3倍。

一副充分洗乱了的牌(含52张牌),试问 (1) 任一特定排列所给出的信息量是多少

(2) 若从中抽取13张牌,所给出的点数都不相同能得到多少信息量

解:

(1) 52张牌共有52!种排列方式,假设每种排列方式出现是等概率的则所给出的信息量是:

!

521)(=

i x p bit x p x I i i 581.225!52log )(log )(==-=

(2) 52张牌共有4种花色、13种点数,抽取13张点数不同的牌的概率如下:

(a)p(x i )=52/52 * 48/51 * 44/50 * 40/49 * 36/48 * 32/47 * 28/46 * 24/45 * 20/44 * 16/43 * 12/42 * 8/41 * 4/40=

(b)总样本:C 1352, 其中13点数不同的数量为4*4*4*…*4=413

。所以,抽取13张点数不同的牌的概率:

bit C x p x I C x p i i i 208.134

log

)(log )(4)(1352

13

13

52

13

=-=-==

居住某地区的女孩子有25%是大学生,在女大学生中有75%是身高160厘米以上的,而女孩子中身高160厘米以上的占总数的一半。假如我们得知“身高160厘米以上的某女孩是大学生”的消息,问获得多少信息量

解:

设随机变量X 代表女孩子学历

X x 1(是大学生) x 2(不是大学生) P(X)

设随机变量Y 代表女孩子身高

Y y 1(身高>160cm ) y 2(身高<160cm ) P(Y)

已知:在女大学生中有75%是身高160厘米以上的

即: 75011.)/(=x y p

求:身高160厘米以上的某女孩是大学生的信息量 即:bit y p x y p x p y x p y x I 415.15

.075

.025.0log )()/()(log )/(log )/(11111111=?-=-=-=

设离散无记忆信源???

???=====??????8/14/1324/18/310)(4321x x x x X P X ,其发出的信息为(202032),求 (1) 此消息的自信息量是多少

(2) 此消息中平均每符号携带的信息量是多少

解:

(1) 此消息总共有14个0、13个1、12个2、6个3,因此此消息发出的概率是:

6

2514814183??

? ?????? ?????? ??=p

此消息的信息量是:bit p I 811.87log =-=

(2) 此消息中平均每符号携带的信息量是:bit n I 951.145/811.87/==

从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为%,如果你问一位男士:“你是否是色盲”他的回答可能是“是”,可能是“否”,问这两个回答中各含多少信息量,平均每个回答中含有多少信息量如果问一位女士,则答案中含有的平均自信息量是多少

解: 男士:

symbol

bit x p x p X H bit

x p x I x p bit x p x I x p i i i N N N Y Y Y / 366.0)93.0log 93.007.0log 07.0()(log )()( 105.093.0log )(log )(%

93)( 837.307.0log )(log )(%

7)(2

=+-=-==-=-===-=-==∑

女士:

symbol bit x p x p X H i

i i / 045.0)995.0log 995.0005.0log 005.0()(log )()(2

=+-=-=∑

设信源??????=??????17.016.017.018.019.02.0)(654321

x x x x x x X P X ,求这个信源的熵,并解释为什么H(X) > log6不满足信源熵的极值性。

解:

585

.26log )(/ 657.2 )17.0log 17.016.0log 16.017.0log 17.018.0log 18.019.0log 19.02.0log 2.0( )

(log )()(26

=>=+++++-=-=∑X H symbol bit x p x p X H i

i i 不满足极值性的原因是

107.1)(6

>=∑i

i

x p 。

同时掷出两个正常的骰子,也就是各面呈现的概率都为1/6,求: (1) “3和5同时出现”这事件的自信息; (2) “两个1同时出现”这事件的自信息;

(3) 两个点数的各种组合(无序)对的熵和平均信息量; (4) 两个点数之和(即2, 3, … , 12构成的子集)的熵; (5) 两个点数中至少有一个是1的自信息量。

解: (1)

bit

x p x I x p i i i 170.418

1

log )(log )(18

1

61616161)(=-=-==

?+?=

(2)

bit

x p x I x p i i i 170.536

1

log )(log )(36

1

6161)(=-=-==

?=

(3)

两个点数的排列如下: 11 12 13 14 15 16 21 22 23 24 25 26 31 32 33 34 35 36 41 42 43 44 45 46 51 52 53 54 55 56 61 62 63 64 65 66

共有21种组合:

其中11,22,33,44,55,66的概率是36

16161=? 其他15个组合的概率是18

161612=??

symbol bit x p x p X H i

i i / 337.4181log 18115361log 3616)(log )()(=??? ??

?+?-=-=∑

(4)

参考上面的两个点数的排列,可以得出两个点数求和的概率分布如下:

symbol

bit x p x p X H X P X i

i i / 274.3 61log 61365log 365291log 912121log 1212181log 1812361log 36

12 )

(log )()(36112181111211091936586173656915121418133612)(=?

?? ??

+?+?+?+?+?-=-=??????????=?

?????∑

(5)

bit

x p x I x p i i i 710.136

11

log )(log )(36

11116161)(=-=-==

??=

证明:H(X 1X 2 。。。 X n ) ≤ H(X 1) + H(X 2) + … + H(X n )。

证明:

...

)/()( 0);()/()( 0);().../(...)/()/()()...(21332131221212121312121X X X H X H X X X I X X H X H X X I X X X X H X X X H X X H X H X X X H n n n ≥?≥≥?≥++++=-)

(...)()()()...()

.../()( 0)...;(32121121121n n n N N n N X H X H X H X H X X X H X X X X H X H X X X X I ++++≤∴≥?≥--

证明:H(X 3/X 1X 2) ≤ H(X 3/X 1),并说明当X 1, X 2, X 3是马氏链时等式成立。

证明:

log 1)/()(log )()/()(log 1)/()/()()

/()

/(log

)()

/(log )()/(log )()

/(log )()/(log )()

/()/(212

31321212332112313211232213133211

2

3

213133211

2

3

133211

2

3

2133211

3

13311

2

3

21332113213=????

??-??????=??

?

??-=????

??-≤=+-=+-=-∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑e x x p x x p e

x x x p x x p x x p e x x x p x x p x x x p x x x p x x p x x x p x x p x x x p x x x p x x x p x x p x x p x x x p x x x p X X H X X X H i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i

氏链

是马等式成立的条件是时等式成立

_,,)/()/()/()()/()/()()()/()/()()

/()/(01)

/()

/()/()/(321132131232113121212131321213132131313213X X X x x x p x x p x x p x x x p x x p x x p x p x x p x x x p x x p x x p x x x p x x p x x x p x x p X X H X X X H i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i ∴=?=?=?=?=-≤∴

对某城市进行交通忙闲的调查,并把天气分成晴雨两种状态,气温分成冷暖两个状态,调查结果得联合出现的相对频度如下:

若把这些频度看作概率测度,求: (1) 忙闲的无条件熵;

(2) 天气状态和气温状态已知时忙闲的条件熵; (3) 从天气状态和气温状态获得的关于忙闲的信息。

解: (1)

根据忙闲的频率,得到忙闲的概率分布如下:

symbol

bit x p x p X H x x X P X i i

i / 964.010340log 1034010363log 10363)(log )()(1034010363闲忙)(2

21=??? ??+-=-=??

????????=?

?????∑

(2)

设忙闲为随机变量X ,天气状态为随机变量Y ,气温状态为随机变量Z

symbol

bit YZ H XYZ H YZ X H symbol bit z y p z y p YZ H symbol bit z y x p z y x p XYZ H j

k

k j k j i

j

k

k j i k j i / 859.0977.1836.2)()()/(/ 977.1 10328log 1032810332log 1033210323log 1032310320log 10320 )

(log )()(/ 836.2 10312log 103121035log 103510315log 103151038log 1038 103

16log

1031610327log 103271038log 103810312log 10312

)

(log )()(=-=-==?

?

? ??+++-=-==?

?

?

++++ ??+++-=-=∑∑∑∑∑ (3)

symbol bit YZ X H X H YZ X I / 159.0859.0964.0)/()();(=-=-=

有两个二元随机变量X 和Y ,它们的联合概率为

并定义另一随机变量Z = XY (一般乘积),试计算: (1) H(X), H(Y), H(Z), H(XZ), H(YZ)和H(XYZ);

(2) H(X/Y), H(Y/X), H(X/Z), H(Z/X), H(Y/Z), H(Z/Y), H(X/YZ), H(Y/XZ)和H(Z/XY); (3) I(X;Y), I(X;Z), I(Y;Z), I(X;Y/Z), I(Y;Z/X)和I(X;Z/Y)。

解: (1)

symbol

bit y p y p Y H y x p y x p y p y x p y x p y p symbol

bit x p x p X H y x p y x p x p y x p y x p x p j

j j i

i i / 1)(log )()(2

1

8183)()()(21

8381)()()(/ 1)(log )()(2

1

8183)()()(21

8381)()()(22212121112212221111=-==

+=+==

+=+==-==

+=+==

+=+=∑∑

Z = XY 的概率分布如下:

symbol

bit z p Z H z z Z P Z k

k / 544.081log 8187log 87

)()(818710)(2

21=??? ??+-=-=??????????===?

?????∑

symbol

bit z x p z x p XZ H z p z x p z x p z x p z p z x p z p z x p z x p z x p z p x p z x p z x p z x p z x p x p i k

k i k i / 406.181log 8183log 8321log 21

)(log )()(8

1

)()()()()(8

35.087)()()()()()(5.0)()(0)()()()(2222221211112121111112121111=??? ??++-=-==

=+==-=-=+====+=∑∑

symbol

bit z y p z y p YZ H z p z y p z y p z y p z p z y p z p z y p z y p z y p z p y p z y p z y p z y p z y p y p j k

k j k j / 406.181log 8183log 8321log 21

)(log )()(8

1)()()()()(8

35.087)()()()()()(5.0)()(0)()()()(2222221211112121111112121111=??? ??++-=-==

=+==-=-=+====+=∑∑

symbol

bit z y x p z y x p XYZ H y x p z y x p y x p z y x p z y x p z y x p y x p z y x p y x p z y x p z y x p z y x p z x p z y x p z x p z y x p z y x p y x p z y x p y x p z y x p z y x p z y x p z y x p z y x p i

j

k

k j i k j i / 811.181log 8183log 8383log 8381log 8

1

)(log )()(8

1

)()()

()()(0

)(8

3)()()()()(8

38121)()()()()()(8/1)()()()()(0

)(0)(0)(22222222222122122121121221211211111121111111211111111211111212221211=??? ??+++-=-==

==+====+=-=-==+===+===∑∑∑

(2)

symbol

bit XY H XYZ H XY Z H symbol bit XZ H XYZ H XZ Y H symbol bit YZ H XYZ H YZ X H symbol

bit Y H YZ H Y Z H symbol bit Z H YZ H Z Y H symbol bit X H XZ H X Z H symbol bit Z H XZ H Z X H symbol bit X H XY H X Y H symbol bit Y H XY H Y X H symbol

bit y x p y x p XY H i j

j i j i / 0811.1811.1)()()/(/ 405.0406.1811.1)()()/(/ 405.0406.1811.1)()()/(/ 406.01406.1)()()/(/ 862.0544.0406.1)()()/(/ 406.01406.1)()()/(/ 862.0544.0406.1)()()/(/ 811.01811.1)()()/(/ 811.01811.1)()()/(/ 811.181log 8183log 8383log 8381log 81

)(log )()(2=-=-==-=-==-=-==-=-==-=-==-=-==-=-==-=-==-=-==??? ??+++-==-=∑∑

(3)

symbol

bit YZ X H Y X H Y Z X I symbol bit XZ Y H X Y H X Z Y I symbol bit YZ X H Z X H Z Y X I symbol

bit Z Y H Y H Z Y I symbol bit Z X H X H Z X I symbol bit Y X H X H Y X I / 406.0405.0811.0)/()/()/;(/ 457.0405.0862.0)/()/()/;(/ 457.0405.0862.0)/()/()/;(/ 138.0862.01)/()();(/ 138.0862.01)/()();(/ 189.0811.01)/()();(=-=-==-=-==-=-==-=-==-=-==-=-=

有两个随机变量X 和Y ,其和为Z = X + Y (一般加法),若X 和Y 相互独立,求证:H(X) ≤ H(Z), H(Y) ≤ H(Z)。

证明:

)

()()/()()

()(log )()( )/(log )/()()/(log )()/()(

0)( )()()/(2Y H Z H X Z H Z H Y H y p y p x p x z p x z p x p x z p z x p X Z H Y x z Y

x z y p x z p x z p Y

X Z i j j j i i k i k i k i i k i k k i i k i k j i k i k ≥∴≥=??

?

???-=?

??

???-=-=??

??-∈-=-=∴+=∑∑∑∑∑∑ΘΘ 同理可得)()(X H Z H ≥。

设有一个信源,它产生0,1序列的信息。它在任意时间而且不论以前发生过什么符号,均按P(0) = ,P(1) = 的概率发出符号。 (1) 试问这个信源是否是平稳的 (2) 试计算H(X 2), H(X 3/X 1X 2)及H ∞;

(3) 试计算H(X 4)并写出X 4信源中可能有的所有符号。

解: (1)

这个信源是平稳无记忆信源。因为有这些词语:“它在任意时间....而且不论以前发生过什么符号...........……” (2)

symbol

bit X H X X X X H H symbol bit x p x p X H X X X H symbol

bit X H X H N N N N i

i i / 971.0)().../(lim / 971.0)6.0log 6.04.0log 4.0()(log )()()/(/ 942.1)6.0log 6.04.0log 4.0(2)(2)(12132132====+-=-===+?-==-∞

>-∞∑

(3)

1111

111011011100101110101001100001110110010101000011001000010000的所有符号:/ 884.3)6.0log 6.04.0log 4.0(4)(4)(44X symbol bit X H X H =+?-==

设是平稳离散有记忆信源,试证明:

).../(...)/()/()()...(12121312121-++++=N N N X X X X H X X X H X X H X H X X X H 。

证明:

)

.../(...)/()/()()

.../(log )...(...... )

/(log )()(log )()

.../(log )...(...... )

/(log )...(...)(log )...(...)

.../().../()(log )...(...)

...(log )...(...)

...(12121312121111

2

211

2

12211

11111

2

21121221112211

2

11121211

2

2121-++++=---=-???

???-??????-=-=-=---∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑∑N N i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i i N X X X X H X X X H X X H X H x x x p x x x p x x p x x p x p x p x x x p x x x p x x p x x x p x p x x x p x x x p x x p x p x x x p x x x p x x x p X X X H N N N

N N N N

N N N N N N

N N N N

N N

某一无记忆信源的符号集为{0, 1},已知P(0) = 1/4,P(1) = 3/4。 (1) 求符号的平均熵;

(2) 有100个符号构成的序列,求某一特定序列(例如有m 个“0”和(100 - m )个“1”)的自信息量的表达式; (3) 计算(2)中序列的熵。

解: (1)

symbol bit x p x p X H i

i i / 811.043log 4341log 41

)(log )()(=??? ??+-=-=∑

(2)

bit m x p x I x p m

i i m m

m

i 585.15.4143

log

)(log )(4

34341)(100

100100

100100+=-=-==?

?

?

?????? ??=---

(3)

symbol bit X H X H / 1.81811.0100)(100)(100=?==

一阶马尔可夫信源的状态图如下图所示。信源X 的符号集为{0, 1, 2}。 (1) 求平稳后信源的概率分布; (2) 求信源的熵H ∞。

P

P

解: (1)

???

??===??

?=++==????

????+?=?+?=?+?=???

??+=+=+=3/1)(3/1)(3/1)(1)()()()()()()()()()()()()

()()()

/()()/()()()/()()/()()()/()()/()()(3

213213211333222111313333

32322222121111e p e p e p e p e p e p e p e p e p e p p e p p e p e p p e p p e p e p p e p p e p e e p e p e e p e p e p e e p e p e e p e p e p e e p e p e e p e p e p

?

?????=??????????

???=+=?+?=+==+=?+?=+==+=?+?=+=3/123/113/10

)(3

/13/)()()()/()()/()()(3/13/)()()()/()()/()()(3/13/)()()()/()()/()()(131313333323232222212121111X P X p p e p p e p p e x p e p e x p e p x p p p e p p e p p e x p e p e x p e p x p p p e p p e p p e x p e p e x p e p x p (2)

()

symbol

bit p p p p p p p p p p p p p p p p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e p H i

j

i j i j i / log log log

31log 31log 31log 31log 31log 31

)/(log )/(31)/(log )/(31)/(log )/(31 )

/(log )/(3

1

)/(log )/(31)/(log )/(31 )

/(log )/(31)/(log )/(31)/(log )/(3

1

)

/(log )/()(33333232313123232222212113131212111133

?+?-=??

?

?????+??+??+??+?+??-=?

??

++++++???++-=-=∑∑∞

黑白气象传真图的消息只有黑色和白色两种,即信源X ={黑,白}。设黑色出现的概率为P(黑) = ,白色出现的概率为P(白) = 。

(1) 假设图上黑白消息出现前后没有关联,求熵H(X);

(2) 假设消息前后有关联,其依赖关系为P(白/白) = ,P(黑/白) = ,P(白/黑) = ,P(黑/黑) = ,求此一阶马尔可夫信源的熵H 2(X);

(3) 分别求上述两种信源的剩余度,比较H(X)和H 2(X)的大小,并说明其物理含义。

解: (1)

symbol bit x p x p X H i

i i / 881.0)7.0log 7.03.0log 3.0()(log )()(=+-=-=∑

(2)

symbol

bit e e p e e p e p H e p e p e p e p e p e p e p e p e p e p e p e p e e p e p e e p e p e p e e p e p e e p e p e p i

j

i j i j i / 553.0 9.0log 9.0321.0log 1.0322.0log 2.0318.0log 8.031 )

/(log )/()(3

/2)(3/1)(1)()()(2)()(2.0)(9.0)()(1.0)(8.0)()/()()/()()()/()()/()()(21211212221112122222121111=?

?

?

???+?+?+?-=-=??

?==??

?=+=??

?+=+=??

?+=+=∑∑∞

(3)

%

7.442

log 553

.02log %9.112

log 881

.02log 001001=-=-==-=-=

∞∞H H H H H H ηη

H(X) > H 2(X)

p(黑/黑)=0.8

e1

e2

表示的物理含义是:无记忆信源的不确定度大于有记忆信源的不确定度,有记忆信源的结构化信息较多,能够进行较大程度的压缩。

每帧电视图像可以认为是由3105个像素组成的,所有像素均是独立变化,且每像素又取128个不同的亮度电平,并设亮度电平是等概出现,问每帧图像含有多少信息量若有一个广播员,在约10000个汉字中选出1000个汉字来口述此电视图像,试问广播员描述此图像所广播的信息量是多少(假设汉字字汇是等概率分布,并彼此无依赖)若要恰当的描述此图像,广播员在口述中至少需要多少汉字

解: 1)

symbol bit X NH X H symbol

bit n X H N

/ 101.27103)()(/ 7128log log )(6

5

?=??=====

2)

symbol bit X NH X H symbol bit n X H N

/ 13288288.131000)()(/ 288.1310000log log )(=?=====

3)

158037288

.13101.2)()(6

=?==X H X H N N

给定声音样值X 的概率密度为拉普拉斯分布+∞<<-∞=-x e x p x

,2

1)(λλ,求H c (X),并证明

它小于同样方差的正态变量的连续熵。

解:

()

()

()[]

λπλσπλλλλλσλλλλλλλλλλ

λλλλ

λλ

λ

λλλλλλλλλλλλλλλλλλλλλλλλλλλλλλλλλλλe

X H e e X H dx e x e xde xdx

e dx e dx e x e de x dx

x e dx x e dx x x p x E m x E xdx e xdx e m ydy e ydy e y d y e xdx e xdx

e xdx e xdx e xdx x p X E m symbol

bit e

e X H e e e e d e e e e d e dx

e e dx

e e dx e e dx

e x p dx x p dx

e x p dx x p x p X H c c x x x

x x x x x x x x x y y y x x x x c x x x x

x x

x x x x x x x x x c 2log

)(2log 2log 21)(222 2 21)()(0

2

1

212

121)()(21212

12121)()(/ 2log log 2log )(log log log log log log 其中:

log 2

log log 2

12

log log )()(2log 2

1

log )()(log )()(2正态2

00000

20202020

22

||222200000)(000|

|22200020

|||

|||||=>==∴=??? ?

?--=-===??? ??--=-===?==-==+-=∴-==--=+==?===+=∴=??

? ??-=-==-=-=--=-=-=????????

??????????

????

??

??

??∞+-∞+-∞+-∞

+-∞+-∞+-∞+-∞+-∞+-∞

+∞--∞+∞-∞+-∞+-∞+-∞+-∞+-∞-∞+-∞-∞

+∞--∞+∞-∞+-∞

+--∞

+--∞

+--∞

+--∞

+--∞+∞---∞

+∞

--∞

+∞

-+∞

∞--+∞

∞-Θ

连续随机变量X 和Y 的联合概率密度为:???

??≤+=其他

01

),(2222

r y x r y x p π,求H(X), H(Y), H(XYZ)

和I(X;Y)。

(提示:?-

=20

222log 2

sin log π

π

xdx )

解:

??

?

??

?????

??????

?

-+-=+

==-==--=--=--=-+-=--=---=--=-=≤≤--===----------

---202020

220

2

20

20

22220

2

20

2222

22

2222222222222

22222

222

22sin log 2

2cos 1422cos 1log 4

sin log sin 4

log sin 4sin log sin 4

sin log sin 4)

cos (sin log sin 4cos log 4log 2log )(/ log 2

1

log log 2

1

1log 2log log )(2log log )(2

log )( 2log )( )(log )()()( 21)()(2

2222

22

π

π

π

π

ππθθθ

πθθπ

θ

θθπθθπθθθπ

θθθπθθθπθπππππππππd d r d rd d r d r r r r d r r r r x dx x r x r r dx x r r x r dx

x r x p symbol

bit e r e

r r dx

x r x p r dx

x r x p dx r

x p dx r

x r x p dx

x p x p X H r x r r

x r dy r dy xy p x p r r

r r

r

r r r r r r r

r r

r c x r x r x r x r 令其中:

e

e e d e d e d e d e d e

d d d e

r d r d d r r d d d r d r 220

2220

220

22

0220

2220

220

20

20

20

220

20

220

20

20

20

20

log 21

2sin log 21log 212cos log 1log 122cos 1log 2

cos log 2

sin log cos cos sin 21

sin log 2sin sin log 2sin 12sin sin log 1

sin log 2cos 2

log 2

1

1log sin log 2cos 2

1log sin log 2cos 2

)2log 2

(2

2sin log 1

log sin log 2cos 2

sin log 2

2cos log 2

log 2

-=--=--=+-

=-=-=???

?

??-==

+-=-

-=-

-

+

-

=-

+

-

=

?????

??

??

?

??

?

??π

π

ππ

π

π

π

π

π

π

π

π

π

π

π

π

π

θπθ

θπ

θπθ

θ

πθ

θπθ

θ

θθ

θπθθθθπθ

θπθ

θθπθ

θθπθ

θθπππ

θπ

θ

θθπθθπθθπ

θπ

其中:

bit/symbol

e r e r XY H Y H X H Y X I bit/symbol r dxdy xy p r dxdy r

xy p dxdy

xy p xy p XY H bit/symbol

e r X H Y H x p y p r y r r y r dx r dx xy p y p c c c c R

R

R

c C C y r y r y r y r log log log log log 2 )()()();( log )(log 1

log

)( )(log )()( log 2

1

log )()()

()()

( 21

)()(222222222222

2222

222222

2-=--=-+===-=-=-===≤≤--===???????

?

---

---πππππππππ

设是N 维高斯分布的连续信源,且X 1, X 2, … , X N 的方差分别是22221,...,,N σσσ,它们之间的

相关系数),...,2,1,(0)(j i N j i X X j i ≠==ρ。试证明:N 维高斯分布的连续信源熵

∑==N

i

i N c c e X X X H X H 2212log 21)...()(σπ

证明:

相关系数()

()j i N j i x x j i ≠== ,,...,2,1, 0ρ,说明N X X X ...21是相互独立的。

∑==+++=+++=∴=+++==∴N

i i N

N c c c c i i c N c c c N c c e e e e X H X H X H X H e X H X H X H X H X X X H X H 12

2

2221212

21212log 21 2log 21...2log 212log 21 )

(...)()()(2log 2

1

)()(...)()()...()(σπσπσπσπσπΘ

设有一连续随机变量,其概率密度函数??

?≤≤=其他

0)(2

a x bx x p

(1) 试求信源X 的熵H c (X);

(2) 试求Y = X + A (A > 0)的熵H c (Y); (3) 试求Y = 2X 的熵H c (Y)。

解: 1)

symbol

bit e

a b X H ba a F bx x F e

a ba

b xdx

x b b dx

x x f dx x f b dx

bx x f dx x f x f X H c X X R

R

R

R

R

c / log 32log )(1

3

)(,3)(log

92log log 2log log )()(log log )()(log )()(3

3

333222?--=∴===--=--=-?-=-=-=?????Θ

2)

??????

-----=--?-=--=-=-='=-==-≤=≤+=≤=+≤≤∴≤-≤?≤≤-R

R

R

R

R

c A y A Y A y

d A y A y b b dy

A y y f dy y f b dy A y b y f dy y f y f Y H A y b y F y f A y b

dx bx A y X P y A X P y Y P y F A

a y A a A y a x )

()log()(2log )log()()(log )(log )()(log )()()()()()(3

)()()()(002222

32Θ

symbol

bit e

a b Y H ba A a F A y b y F symbol

bit e

a ba

b

c Y Y / log 32log )(13

)(,)(3)(/ log 92log 3

33

33?--=∴==+-=--=Θ

3)

symbol

bit e

a b Y H ba a F y b y F ba e a ba b e a ba b ydy

y b

b dy

y y f dy y f b

dy y b y f dy y f y f Y H y b

y F y f y

b dx bx y

X P y X P y Y P y F a

y a y a x c Y Y R R R

R

R

c y

Y / 1log 32log )(1

3

)2(,24)(3

29log 92log 8log

928log log 48log log )()(8log 8

log

)()(log )()(8)()(24

)

2

()2()()(202

003

3

33

333

32222

3

202+?--=∴===-+

--=--=--=-?-=-=-=='===≤=≤=≤=≤≤∴≤≤?≤≤??????ΘΘ

信息论与编码第一章答案

第一章信息论与基础 1.1信息与消息的概念有何区别? 信息存在于任何事物之中,有物质的地方就有信息,信息本身是看不见、摸不着的,它必须依附于一定的物质形式。一切物质都有可能成为信息的载体,信息充满着整个物质世界。信息是物质和能量在空间和时间中分布的不均匀程度。信息是表征事物的状态和运动形式。 在通信系统中其传输的形式是消息。但消息传递过程的一个最基本、最普遍却又十分引人注意的特点是:收信者在收到消息以前是不知道具体内容的;在收到消息之前,收信者无法判断发送者将发来描述何种事物运动状态的具体消息;再者,即使收到消息,由于信道干扰的存在,也不能断定得到的消息是否正确和可靠。 在通信系统中形式上传输的是消息,但实质上传输的是信息。消息只是表达信息的工具,载荷信息的载体。显然在通信中被利用的(亦即携带信息的)实际客体是不重要的,而重要的是信息。 信息载荷在消息之中,同一信息可以由不同形式的消息来载荷;同一个消息可能包含非常丰富的信息,也可能只包含很少的信息。可见,信息与消息既有区别又有联系的。 1.2 简述信息传输系统五个组成部分的作用。 信源:产生消息和消息序列的源。消息是随机发生的,也就是说在未收到这些消息之前不可能确切地知道它们的内容。信源研究主要内容是消息的统计特性和信源产生信息的速率。 信宿:信息传送过程中的接受者,亦即接受消息的人和物。 编码器:将信源发出的消息变换成适于信道传送的信号的设备。它包含下述三个部分:(1)信源编码器:在一定的准则下,信源编码器对信源输出的消息进行适当的变换和处理,其目的在于提高信息传输的效率。(2)纠错编码器:纠错编码器是对信源编码器的输出进行变换,用以提高对于信道干扰的抗击能力,也就是说提高信息传输的可靠性。(3)调制器:调制器是将纠错编码器的输出变换适合于信道传输要求的信号形式。纠错编码器和调制器的组合又称为信道编码器。 信道:把载荷消息的信号从发射端传到接受端的媒质或通道,包括收发设备在内的物理设施。信道除了传送信号外,还存储信号的作用。 译码器:编码的逆变换。它要从受干扰的信号中最大限度地提取出有关信源输出消息的信息,并尽可能地复现信源的输出。 1.3 同时掷一对骰子,要得知面朝上点数之和,描述这一信源的数学 模型。 解:设该信源符号集合为X

信息论与编码第二章答案解析

2-1、一阶马尔可夫链信源有3个符号 {}123,,u u u ,转移概率为:1 112 ()u p u =, 2112()u p u =,31()0u p u =,1213()u p u = ,22()0u p u =,3223()u p u =,1313()u p u =,2323()u p u =,33()0u p u =。画出状态图并求出各符号稳态概率。 解:由题可得状态概率矩阵为: 1/21/2 0[(|)]1/302/31/32/30j i p s s ????=?? ???? 状态转换图为: 令各状态的稳态分布概率为1W ,2W ,3W ,则: 1W = 121W +132W +133W , 2W =121W +233W , 3W =23 2W 且: 1W +2W +3W =1 ∴稳态分布概率为: 1W = 25,2W =925,3W = 625 2-2.由符号集{0,1}组成的二阶马尔可夫链,其转移概率为:P(0|00)=0.8,P(0|11)=0.2,P(1|00)=0.2,P(1|11)=0.8,P(0|01)=0.5,p(0|10)=0.5,p(1|01)=0.5,p(1|10)=0.5画出状态图,并计算各符号稳态概率。 解:状态转移概率矩阵为: 令各状态的稳态分布概率为1w 、2w 、3w 、4w ,利用(2-1-17)可得方程组。 0.8 0.2 0 00 0 0.5 0.5()0.5 0.5 0 00 0 0.2 0.8j i p s s ?? ?? ? ?=??????

111122133144113211222233244213 311322333344324411422433444424 0.80.50.20.50.50.20.50.8w w p w p w p w p w w w w p w p w p w p w w w w p w p w p w p w w w w p w p w p w p w w =+++=+??=+++=+?? =+++=+??=+++=+? 且12341w w w w +++=; 解方程组得:12345141717514w w w w ?=???=???=???=? 即:5(00)141(01)71(10)75(11)14 p p p p ? =???=?? ?=???=? 2-3、同时掷两个正常的骰子,也就是各面呈现的概率都是16 ,求: (1)、“3和5同时出现”事件的自信息量; (2)、“两个1同时出现”事件的自信息量; (3)、两个点数的各种组合的熵或平均信息量; (4)、两个点数之和的熵; (5)、两个点数中至少有一个是1的自信息量。 解:(1)3和5同时出现的概率为:1111 p(x )=26618 ??= 11 I(x )=-lb 4.1718 bit ∴= (2)两个1同时出现的概率为:2111 p(x )=6636 ?= 21 I(x )=-lb 5.1736 bit ∴= (3)两个点数的各种组合(无序对)为: (1,1),(1,2),(1,3),(1,4),(1,5),(1,6) (2,2),(2,3),(2,4),(2,5),(2,6) (3,3), (3,4),(3,5),(3,6) (4,4),(4,5),(4,6)

信息论与编码习题与答案第二章

第一章 信息、消息、信号的定义?三者的关系? 通信系统的模型?各个主要功能模块及作用? 第二章 信源的分类? 自信息量、条件自信息量、平均自信息量、信源熵、不确定度、条件熵、疑义度、噪声熵、联合熵、互信息量、条件互信息量、平均互信息量以及相对熵的概念?计算方法? 冗余度? 具有概率为)(x i p 的符号x i 自信息量:)(log )(x x i i p I -= 条件自信息量:)(log )( y x y x i i i i p I -= 平均自信息量、平均不确定度、信源熵:∑-=i i i x x p p X H )(log )()( 条件熵:)(log ),()(),()(y x y x y x y x j i j ij i j i j ij i p p I p Y X H ∑∑-== 联合熵:),(log ),(),(),()(y x y x y x y x j i j ij i j i j ij i p p I p Y X H ∑∑-== 互信息:) ()(log )()() ()(log ),();(y x y x y x y x y y x j i j i j ij i j i j j ij i p p p p p p p Y X I ∑∑= = 熵的基本性质:非负性、对称性、确定性 2.3 同时掷出两个正常的骰子,也就是各面呈现的概率都为1/6,求: (1) “3和5同时出现”这事件的自信息; (2) “两个1同时出现”这事件的自信息; (3) 两个点数的各种组合(无序)对的熵和平均信息量; (4) 两个点数之和(即2, 3, … , 12构成的子集)的熵; (5) 两个点数中至少有一个是1的自信息量。 解:(1) bit x p x I x p i i i 170.418 1 log )(log )(18 1 61616161)(=-=-== ?+?= (2) bit x p x I x p i i i 170.536 1 log )(log )(361 6161)(=-=-== ?=

信息论与编码问题详解

《信息论与编码(第二版)》雪虹答案 第二章 2.1一个马尔可夫信源有3个符号{}1,23,u u u ,转移概率为:()11|1/2p u u =,()21|1/2p u u =,()31|0p u u =,()12|1/3p u u =,()22|0p u u =,()32|2/3p u u =,()13|1/3p u u =,()23|2/3p u u =,()33|0p u u =,画出状态图并求出各符号稳态概率。 解:状态图如下 状态转移矩阵为: 1/21/201/302/31/32/30p ?? ?= ? ??? 设状态u 1,u 2,u 3稳定后的概率分别为W 1,W 2、W 3 由1231WP W W W W =??++=?得1231132231231112331223231W W W W W W W W W W W W ?++=???+=???=???++=?计算可得1231025925625W W W ?=???=???=?? 2.2 由符号集{0,1}组成的二阶马尔可夫链,其转移概率为:(0|00)p =0.8,(0|11)p =0.2,(1|00)p =0.2,(1|11)p =0.8,(0|01)p =0.5,(0|10)p =0.5,(1|01)p =0.5,(1|10)p =0.5。画出状态图,并计算各状态的稳态概率。 解:(0|00)(00|00)0.8p p == (0|01)(10|01)0.5p p == (0|11)(10|11)0.2p p == (0|10)(00|10)0.5p p == (1|00)(01|00)0.2p p == (1|01)(11|01)0.5p p == (1|11)(11|11)0.8p p == (1|10)(01|10)0.5p p ==

信息论第二章答案

2.3 同时掷出两个正常的骰子,也就是各面呈现的概率都为1/6,求: (1) “3和5同时出现”这事件的自信息; (2) “两个1同时出现”这事件的自信息; (3) 两个点数的各种组合(无序)对的熵和平均信息量; (4) 两个点数之和(即2, 3, … , 12构成的子集)的熵; (5) 两个点数中至少有一个是1的自信息量。 解: (1) bit x p x I x p i i i 170.418 1 log )(log )(181 61616161)(=-=-== ?+?= (2) bit x p x I x p i i i 170.536 1 log )(log )(361 6161)(=-=-== ?= (3)两个点数的排列如下: 11 12 13 14 15 16 21 22 23 24 25 26 31 32 33 34 35 36 41 42 43 44 45 46 51 52 53 54 55 56 61 62 63 64 65 66 共有21种组合: 其中11,22,33,44,55,66的概率是36 16161=? 其他15个组合的概率是18 161612=?? symbol bit x p x p X H i i i / 337.4181log 18115361log 3616)(log )()(=??? ?? ?+?-=-=∑ (4)参考上面的两个点数的排列,可以得出两个点数求和的概率分布如下: sym bol bit x p x p X H X P X i i i / 274.3 61log 61365log 365291log 912121log 1212181log 1812361log 36 12 ) (log )()(36112181111211091936586173656915121418133612)(=? ?? ?? +?+?+?+?+?-=-=????????? ?=??????∑(5) bit x p x I x p i i i 710.136 11 log )(log )(3611116161)(=-=-== ??=

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源 同时掷一对均匀的子,试求: (1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵; (5)“两个点数中至少有一个是1”的自信息量。 解: bit P a I N n P bit P a I N n P c c N 17.536log log )(36 1 )2(17.418log log )(362)1(36 662221111 616==-=∴====-=∴== =?==样本空间: * (3)信源空间: bit x H 32.436log 36 16236log 36215)(=??+?? =∴

bit x H 71.3636 log 366536log 3610 436log 368336log 366236log 36436log 362)(=??+?+?+??= ∴++ (5) bit P a I N n P 17.111 36 log log )(3611333==-=∴== ? 如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格内,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格内。 (1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。 解: ! bit a P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481 )(:)1(48 1 i i i i i ==-=∴=-=∴= ∑=落入任一格的概率 bit b P b P b b P b I b P A i 55.547log )(log )()(H 47 log )(log )(47 1 )(:B ,)2(48 1i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知 bit AB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()() (log )(47 1 481)()3(47481 =?=-=-=∴?=∑?=是同时落入某两格的概率 从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为%.如果你问一位男士:“你是否是红绿色盲”他的回答可能是:“是”,也可能“不是”。问这两个回答中各含有多少信息量平均每个回答中各含有多少信息量如果你问一位女士,则她的答案中含有多少平均信息量 解:

(完整版)信息论与编码概念总结

第一章 1.通信系统的基本模型: 2.信息论研究内容:信源熵,信道容量,信息率失真函数,信源编码,信道编码,密码体制的安全性测度等等 第二章 1.自信息量:一个随机事件发生某一结果所带的信息量。 2.平均互信息量:两个离散随机事件集合X 和Y ,若其任意两件的互信息量为 I (Xi;Yj ),则其联合概率加权的统计平均值,称为两集合的平均互信息量,用I (X;Y )表示 3.熵功率:与一个连续信源具有相同熵的高斯信源的平均功率定义为熵功率。如果熵功率等于信源平均功率,表示信源没有剩余;熵功率和信源的平均功率相差越大,说明信源的剩余越大。所以信源平均功率和熵功率之差称为连续信源的剩余度。信源熵的相对率(信源效率):实际熵与最大熵的比值 信源冗余度: 0H H ∞=ηη ζ-=1

意义:针对最大熵而言,无用信息在其中所占的比例。 3.极限熵: 平均符号熵的N 取极限值,即原始信源不断发符号,符号间的统计关系延伸到无穷。 4. 5.离散信源和连续信源的最大熵定理。 离散无记忆信源,等概率分布时熵最大。 连续信源,峰值功率受限时,均匀分布的熵最大。 平均功率受限时,高斯分布的熵最大。 均值受限时,指数分布的熵最大 6.限平均功率的连续信源的最大熵功率: 称为平均符号熵。 定义:即无记忆有记忆N X H H X H N X H X NH X H X H X H N N N N N N )() ()()()()()(=≤∴≤≤

若一个连续信源输出信号的平均功率被限定为p ,则其输出信号幅度的概率密度分布是高斯分布时,信源有最大的熵,其值为 1log 22 ep π.对于N 维连续平稳信源来说,若其输出的N 维随机序列的协方差矩阵C 被限定,则N 维随机矢量为正态分布时信源 的熵最大,也就是N 维高斯信源的熵最大,其值为1log ||log 222N C e π+ 7.离散信源的无失真定长编码定理: 离散信源无失真编码的基本原理 原理图 说明: (1) 信源发出的消息:是多符号离散信源消息,长度为L,可以用L 次扩展信 源表示为: X L =(X 1X 2……X L ) 其中,每一位X i 都取自同一个原始信源符号集合(n 种符号): X={x 1,x 2,…x n } 则最多可以对应n L 条消息。 (2)信源编码后,编成的码序列长度为k,可以用k 次扩展信宿符号表示为: Y k =(Y 1Y 2……Y k ) 称为码字/码组 其中,每一位Y i 都取自同一个原始信宿符号集合: Y={y 1,y 2,…y m } 又叫信道基本符号集合(称为码元,且是m 进制的) 则最多可编成m k 个码序列,对应m k 条消息 定长编码:信源消息编成的码字长度k 是固定的。对应的编码定理称为定长信源编码定理。 变长编码:信源消息编成的码字长度k 是可变的。 8.离散信源的最佳变长编码定理 最佳变长编码定理:若信源有n 条消息,第i 条消息出现的概率为p i ,且 p 1>=p 2>=…>=p n ,且第i 条消息对应的码长为k i ,并有k 1<=k 2<=…<=k n

信息论与编码理论习题答案

第二章 信息量和熵 2.2 八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它的 信息速率。 解:同步信息均相同,不含信息,因此 每个码字的信息量为 2?8log =2?3=6 bit 因此,信息速率为 6?1000=6000 bit/s 2.3 掷一对无偏骰子,告诉你得到的总的点数为:(a) 7; (b) 12。问各得到多少信 息量。 解:(1) 可能的组合为 {1,6},{2,5},{3,4},{4,3},{5,2},{6,1} )(a p =366=6 1 得到的信息量 =) (1 log a p =6log =2.585 bit (2) 可能的唯一,为 {6,6} )(b p =361 得到的信息量=) (1 log b p =36log =5.17 bit 2.4 经过充分洗牌后的一副扑克(52张),问: (a) 任何一种特定的排列所给出的信息量是多少? (b) 若从中抽取13张牌,所给出的点数都不相同时得到多少信息量? 解:(a) )(a p =! 521 信息量=) (1 log a p =!52log =225.58 bit (b) ???????花色任选 种点数任意排列 13413!13 )(b p =13 52134!13A ?=1352 13 4C 信息量=1313 52 4log log -C =13.208 bit

2.9 随机掷3颗骰子,X 表示第一颗骰子的结果,Y 表示第一和第二颗骰子的 点数之和,Z 表示3颗骰子的点数之和,试求)|(Y Z H 、)|(Y X H 、 ),|(Y X Z H 、)|,(Y Z X H 、)|(X Z H 。 解:令第一第二第三颗骰子的结果分别为321,,x x x ,1x ,2x ,3x 相互独立, 则1x X =,21x x Y +=,321x x x Z ++= )|(Y Z H =)(3x H =log 6=2.585 bit )|(X Z H =)(32x x H +=)(Y H =2?( 361log 36+362log 18+363log 12+364log 9+365log 536)+36 6 log 6 =3.2744 bit )|(Y X H =)(X H -);(Y X I =)(X H -[)(Y H -)|(X Y H ] 而)|(X Y H =)(X H ,所以)|(Y X H = 2)(X H -)(Y H =1.8955 bit 或)|(Y X H =)(XY H -)(Y H =)(X H +)|(X Y H -)(Y H 而)|(X Y H =)(X H ,所以)|(Y X H =2)(X H -)(Y H =1.8955 bit ),|(Y X Z H =)|(Y Z H =)(X H =2.585 bit )|,(Y Z X H =)|(Y X H +)|(XY Z H =1.8955+2.585=4.4805 bit 2.10 设一个系统传送10个数字,0,1,…,9。奇数在传送过程中以0.5的概 率错成另外一个奇数,其余正确接收,求收到一个数字平均得到的信息量。 解: 8,6,4,2,0=i √ );(Y X I =)(Y H -)|(X Y H 因为输入等概,由信道条件可知,

信息论与编码(曹雪虹_张宗橙)第二、三章答案

2-1.解:该一阶马尔可夫信源,由转移概率构成的转移矩阵为: 对应的状态图如右图所示。设各符号稳定概率为:1p ,2p ,3p 则可得方程组: 1p = 211p +312p +313p 2p =211p +323p 3p =3 22p 1p +2p +3p =1 解得各符号稳态概率为: 1p = 2510,2p =259,3p =25 6 2-2.解:该马尔可夫信源的符号条件概率矩阵为: 状态转移概率矩阵为: 对应的状态图如右图所示。

设各状态的稳态分布概率为1W ,2W ,3W ,4W ,则可得方程组为: 1W =0.81W +0.53W 2W =0.21W +0.53W 3W =0.52W +0.24W 4W =0.52W +0.84W 1W +2W +3W +4W =1 解得稳定分布的概率为: 1W = 145,2W =142,3W =142,4W =14 5 2-3.解:(1)“3和5同时出现”事件的概率为: p(3,5)= 18 1 故其自信息量为: I(3,5)=-㏒2 18 1 =4.17bit (2)“两个1同时出现”事件的概率为: p(1,1)= 36 1 故其自信息量为: I(1,1)=- ㏒2 36 1 =5.17bit (3)两个点数的各种组合构成的信源,其概率空间为: 则该信源熵为: H(x 1)=6× 36 1 lb36+15×181lb18=4.337bit/事件 (4)两个点数之和构成的信源,其概率空间为:

则该信源的熵为: H(x 2)=2× 361 lb36+2×181lb18+2×121lb12+2×91lb9+2×365lb 536+6 1lb6 =3.274bit/事件 (5)两个点数中至少有一个是1的概率为: p(1)= 36 11 故其自信息量为: I(1)= -㏒2 36 11 =1.7105bit 2-7.解:(1)离散无记忆信源的每个符号的自信息量为 I(x 1)= -㏒2 83 =1.415bit I(x 2)= -㏒241 =2bit I(x 3)= -㏒241 =2bit I(x 4)= -㏒28 1 =3bit (2)由于信源发出消息符号序列有12个2,14个0,13个1,6个3,故该消息符 号序列的自信息量为: I(x)= -㏒2( 8 3)14 (41)25 (81)6 =87.81bit 平均每个符号携带的信息量为: L H (x)= 45 ) (x I =1.95bit/符号 2-10 解:用1x 表示第一次摸出的球为黑色,用2x 表示第一次摸出的球为白色,用1y 表示第二次摸出的球为黑色,用2y 表示第二次摸出的球为白色,则 (1)一次实验包含的不确定度为: H(X)=-p(1x )lbp(1x )-p(2x )lbp(2x )=- 13lb 13-23lb 2 3 =0.92 bit (2)第一次实验X 摸出的球是黑色,第二次实验Y 给出的不确定度: H(Y|1x )=-p(1y |1x )lb p(1y |1x )-p(2y |1x )lb p(2y |1x ) = - 27lb 27-57lb 57 = 0.86 bit (3)第一次实验X 摸出的球是白色,第二次实验Y 给出的不确定度:

《信息论与编码理论》(王育民李晖梁传甲)课后习题问题详解高等教育出版社

信息论与编码理论习题解 第二章-信息量和熵 2.1解: 平均每个符号长为:15 4 4.03 12.03 2= ?+?秒 每个符号的熵为9183.03log 3123log 3 2=?+?比特/符号 所以信息速率为444.34 15 9183.0=?比特/秒 2.2 解: 同步信号均相同不含信息,其余认为等概, 每个码字的信息量为 3*2=6 比特; 所以信息速率为600010006=?比特/秒 2.3 解:(a)一对骰子总点数为7的概率是 36 6 所以得到的信息量为 585.2)36 6(log 2= 比特 (b) 一对骰子总点数为12的概率是36 1 所以得到的信息量为 17.536 1 log 2 = 比特 2.4 解: (a)任一特定排列的概率为 ! 521 ,所以给出的信息量为 58.225! 521 log 2 =- 比特 (b) 从中任取13张牌,所给出的点数都不相同的概率为 1352 13 13521344!13C A =? 所以得到的信息量为 21.134 log 1313 52 2=C 比特. 2.5 解:易证每次出现i 点的概率为 21 i ,所以

比特比特比特比特比特比特比特398.221 log 21)(807.1)6(070.2)5(392.2)4(807.2)3(392.3)2(392.4)1(6,5,4,3,2,1,21 log )(26 12=-==============-==∑ =i i X H x I x I x I x I x I x I i i i x I i 2.6 解: 可能有的排列总数为 27720! 5!4!3! 12= 没有两棵梧桐树相邻的排列数可如下图求得, Y X Y X Y X Y X Y X Y X Y X Y 图中X 表示白杨或白桦,它有???? ??37种排法,Y 表示梧桐树可以栽 种的位置,它有???? ??58种排法,所以共有???? ??58*???? ??37=1960种排法保证没有 两棵梧桐树相邻,因此若告诉你没有两棵梧桐树相邻时,得到关于树排列的信息为1960log 27720log 22-=3.822 比特 2.7 解: X=0表示未录取,X=1表示录取; Y=0表示本市,Y=1表示外地; Z=0表示学过英语,Z=1表示未学过英语,由此得

信息论与编码理论第二章习题答案

I (X ;Y=1)= P(x/Y 1)I(x;Y 1) x P(x/Y 1)log P(x/Y 1) P(x) = P(X 0/Y 1)log P(X 0/Y 1) P(X 0) P(X 1/Y 1)log P(X 1/Y 1) P(X 1) 部分答案,仅供参考。 信息速率是指平均每秒传输的信息量点和划出现的信息量分别为log3Jog3, 2’ 一秒钟点和划出现的次数平均为 1 15 2 1 ~4 0.20.4 - 3 3 一秒钟点和划分别出现的次数平均为巴5 4 4 那么根据两者出现的次数,可以计算一秒钟其信息量平均为10 log 3 5 竺 5 4 2 4 4 2 解: ⑻骰子A和B,掷出7点有以下6种可能: A=1,B=6; A=2,B=5; A=3,B=4; A=4,B=3; A=5,B=2; A=6,B=1 概率为6/36=1/6,所以信息量 -log(1/6)=1+log3 ~ bit (b)骰子A和B,掷出12点只有1种可能: A=6,B=6 概率为1/36,所以信息量 -log(1/36)=2+log9 ~ bit 解: 出现各点数的概率和信息量: 1 点:1/21 , log21 ?bit ; 2 点:2/21 , log21-1 ?bit ; 3 点:1/7 , log7 4 点:4/21 , log21-2 5 点:5/21 , log (21/5 )~; 6 点:2/ 7 , log(7/2)? 平均信息量: (1/21) X +(2/21) X +(1/7) X +(4/21) X +(5/21) X +(2/7) 解: X=1:考生被录取;X=0考生未被录取; Y=1:考生来自本市;Y=0考生来自外地; Z=1:考生学过英语;z=o:考生未学过英语 P(X=1)=1/4, P( X=q=3/4; P( Y=1/ X=1)=1/2 ;P( Y=1/ X=0)=1/10 ;P(Z=1/ Y=1 )=1, P( Z=1/ X=0, Y=0 )=, P( Z=1/ X=1, Y=0 )=, P(Z=1/Y=0)= (a)P(X=0,Y=1)=P(Y=1/X=0)P(X=0)=, P(X=1,Y=1)= P(Y=1/X=1)P(X=1)= P(Y=1)= P(X=0,Y=1)+ P(X=1,Y=1)= P(X=0/Y=1)=P(X=0,Y=1)/P(Y=1)=, P(X=1/Y=1)=P(X=1,Y=1)/P(Y=1)=

信息论与编码试题集与答案(新)

一填空题(本题20分,每小题2分) 1、平均自信息为 表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。 平均互信息 表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。 2、最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。 3、最大熵值为。 4、通信系统模型如下: 5、香农公式为为保证足够大的信道容量,可采用(1)用频带换信噪比;(2)用信噪比换频带。

6、只要,当N足够长时,一定存在一种无失真编码。 7、当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 8、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。 9、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。 按照信息的地位,可以把信息分成客观信息和主观信息。 人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。 信息的可度量性是建立信息论的基础。 统计度量是信息度量最常用的方法。 熵是香农信息论最基本最重要的概念。 事物的不确定度是用时间统计发生概率的对数来描述的。 10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对

数的负值 。 12、自信息量的单位一般有 比特、奈特和哈特 。 13、必然事件的自信息是 0 。 14、不可能事件的自信息量是 ∞ 。 15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。 16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。 17、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 。 18、离散平稳有记忆信源的极限熵,=∞H )/(lim 121-∞→N N N X X X X H 。 19、对于n 元m 阶马尔可夫信源,其状态空间共有 nm 个不同的状态。 20、一维连续随即变量X 在[a ,b]区间内均匀分布时,其信源熵为 log2(b-a ) 。 21、平均功率为P 的高斯分布的连续信源,其信源熵,Hc (X )=eP π2log 21 2。 22、对于限峰值功率的N 维连续信源,当概率密度 均匀分布 时连续信源熵具有最大值。 23、对于限平均功率的一维连续信源,当概率密度 高斯分布 时,信源熵有最大值。 24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值P 和信源的熵功率P 之比 。

信息论与编码(第二版)曹雪虹(最全版本)答案

《信息论与编码(第二版)》曹雪虹答案 第二章 一个马尔可夫信源有3个符号{}1,23,u u u ,转移概率为:()11|1/2p u u =,()21|1/2p u u =, ()31|0p u u =,()12|1/3p u u =,()22|0p u u =,()32|2/3p u u =,()13|1/3p u u =,()23|2/3p u u =,()33|0p u u =,画出状态图并求出各符号稳态概率。 解:状态图如下 状态转移矩阵为: 1/21/2 01/302/31/32/30p ?? ?= ? ??? 设状态u 1,u 2,u 3稳定后的概率分别为W 1,W 2、W 3 由1231WP W W W W =??++=?得1231132 231231 112331223231W W W W W W W W W W W W ?++=???+=???=???++=? 计算可得1231025925625W W W ?=???= ?? ?=?? 由符号集{0,1}组成的二阶马尔可夫链,其转移概率为:(0|00)p =,(0|11)p =,(1|00)p =, (1|11)p =,(0|01)p =,(0|10)p =,(1|01)p =,(1|10)p =。画出状态图,并计算各状态的稳态概 率。 解:(0|00)(00|00)0.8p p == (0|01)(10|01)0.5p p == (0|11)(10|11)0.2p p == (0|10)(00|10)0.5p p == (1|00)(01|00)0.2p p == (1|01)(11|01)0.5p p == u 1 u 2 u 3 1/2 1/21/3 2/32/3 1/3

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源 同时掷一对均匀的子,试求: (1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵; (5)“两个点数中至少有一个是1”的自信息量。 解: bit P a I N n P bit P a I N n P c c N 17.536log log )(361 )2(17.418log log )(362)1(36 662221111 616==-=∴====-=∴== =?==样本空间: (3)信源空间:

bit x H 32.436log 36 16236log 36215)(=??+?? =∴ (4)信源空间: bit x H 71.3636 log 366536log 3610 436log 368336log 366236log 36436log 362)(=??+?+?+??= ∴++ (5) bit P a I N n P 17.111 36 log log )(3611333==-=∴== 如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格内,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格内。 (1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。 解: bit a P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481 )(:)1(48 1 i i i i i ==-=∴=-=∴= ∑=落入任一格的概率Θ bit b P b P b b P b I b P A i 55.547log )(log )()(H 47 log )(log )(47 1 )(:B ,)2(48 1i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知Θ

信息论第1章

第一章信息的定性描述 第一节对信息的初步认识 一. 信息社会 当今,世界上信息革命的热潮一浪高过一浪。近年来,移动电话、个人电脑和网络用户正以高于摩尔定律的速度迅猛增长。人们都在谈论着信息社会、信息革命和网络时代,信息似乎成了个很时髦的字眼儿。就连中国人平常打招呼的话“你吃饭了吗?”也被有些人改成“你上网了吗?”但这绝不是什么赶时髦,也绝不是什么偶然现象,而是社会发展的必然趋势。因为在信息社会里,人们最关心的是信息问题,而不是吃饭问题。“民以食为天”的信条将会逐渐被“民以信为天”所代替。社会学家和未来学家普遍认为,20世纪末和21世纪初,是信息革命爆发的时期。一些新技术的突破和新产业的出现,使社会生产力发生了新的飞跃,人们的生活也发生了新的变化,人类社会正在进入信息化社会。所谓信息化社会,就是以信息产业为中心,使社会生产、生活和经济都发展起来的社会。在这种社会中, ◆信息成了比物质或能源更为重要的资源, ◆对信息产业成了重要的产业。 ◆从事信息工作者成了主要的劳动者。 ◆信息和知识成了生产力发展的决定因素。 二. 信息的普遍性 其实,信息并不是什么新鲜东西, 信息无时不在,无处不有。 人们生活在信息的海洋里,天天都要通过自己的感觉器官感受各种外界信息。例如,衣食住行,读书看报,听广播,看电视等等。人们要进行社会活动就需要有信息交流。例如,除了书信、电话、电报之外,天天都要同许多人交谈、交往。人们还要进行信息处理和存储。例如,要把观察、接收到的大量事物、数据和资料进行分类、分析、整理和纪录。 不仅如此,信息也是人类自身进化的一个基本条件。恩格斯对于人类的进化过程,曾有过这样一段极其精彩的描述:“……这些猿类,大概是首先由于它们生活方式的影响……渐渐直立行走……手变得自由了……随着手的发展,随着劳动而开始的人对自然的统治,在每一个新的发展中扩大了人的眼界。……另一方面,劳动的发展必然促使社会成员更加紧密地互相结合起来,因为它使互相帮助和共同协作的场合增多了,并且使每个人都清楚地意识到这种共同协作的好处。一句话,这些正在形成中的人,已经到了彼此间有些什么非说不可的地步了。需要产生了自己的器官:猿类不发达的喉头,由于音调的抑扬顿挫的不断加多,缓慢地然而肯定地得到改造,而口部的器官也逐渐学会了发出一个个清晰的音节……首先是劳动,然后是语言和劳动一起,成了两个最主要的推动力,在它们的影响下,猿的脑髓就逐渐地变成人的脑髓……由于随着完全形成的人的出现而产生了新的因素——社会。”在这里,我们看到了一幅清晰的图景,它说明这些正在形成中的人,怎样在与外部的联系中产生了感知信息与利用信息的需要,因而逐渐形成和发展了自己的信息器官:眼、耳、口、脑等等。形成和发展这些器官,形成和发展语言,正是为了从自然界取得信息和利用信息来强化自己,

《信息论与编码》课后习题答案

《信息论与编码》课后习题答案 第二章 2.1一个马尔可夫信源有3个符号{}1,23,u u u ,转移概率为:()11|1/2p u u =, ()21|1/2p u u =,()31|0p u u =,()12|1/3p u u =,()22|0p u u =,()32|2/3p u u =, ()13|1/3p u u =,()23|2/3p u u =,()33|0p u u =,画出状态图并求出各符号稳态概率。 解:状态图如下 状态转移矩阵为: 1/21/2 01/302/31/32/30p ?? ?= ? ??? 设状态u 1,u 2,u 3稳定后的概率分别为W 1,W 2、W 3 由1231WP W W W W =??++=?得1231132231231 112331223231 W W W W W W W W W W W W ?++=???+=???=???++=?计算可得1231025925625W W W ?=??? =?? ?=?? 2.2 由符号集{0,1}组成的二阶马尔可夫链,其转移概率为:(0|00)p =0.8,(0|11)p =0.2, (1|00)p =0.2,(1|11)p =0.8,(0|01)p =0.5,(0|10)p =0.5,(1|01)p =0.5,(1|10)p =0.5。 画出状态图,并计算各状态的稳态概率。 解:(0|00)(00|00)0.8p p == (0|01)(10|01)0.5p p == (0|11)(10|11)0.2p p == (0|10)(00|10)0.5p p == (1|00)(01|00)0.2p p == (1|01)(11|01)0.5p p == (1|11)(11|11)0.8p p == (1|10)(01|10)0.5p p ==

信息论与编码第二章答案

第二章 信息的度量 2.1 信源在何种分布时,熵值最大?又在何种分布时,熵值最小? 答:信源在等概率分布时熵值最大;信源有一个为1,其余为0时熵值最小。 2.2 平均互信息量I(X;Y)与信源概率分布q(x)有何关系?与p(y|x)又是什么关系? 答: 若信道给定,I(X;Y)是q(x)的上凸形函数; 若信源给定,I(X;Y)是q(y|x)的下凸形函数。 2.3 熵是对信源什么物理量的度量? 答:平均信息量 2.4 设信道输入符号集为{x1,x2,……xk},则平均每个信道输入符号所能携带的最大信息量是多少? 答:k k k xi q xi q X H i log 1log 1)(log )() (=- =-=∑ 2.5 根据平均互信息量的链规则,写出I(X;YZ)的表达式。 答:)|;();();(Y Z X I Y X I YZ X I += 2.6 互信息量I(x;y)有时候取负值,是由于信道存在干扰或噪声的原因,这种说法对吗? 答:互信息量) ()|(log ) ;(xi q yj xi Q y x I =,若互信息量取负值,即Q(xi|yj)

答: 由图示可知:4 3)|(4 1)|(32)|(31)|(41)|(43)|(222111110201= = == == s x p s x p s x p s x p s x p s x p 即: 4 3)|(0)|(4 1)|(31)|(32)|(0)|(0 )|(4 1)|(4 3)|(222120121110020100= == = ==== = s s p s s p s s p s s p s s p s s p s s p s s p s s p 可得: 1 )()()() (43)(31)()(31)(41)()(41)(43)(210212101200=+++ = +=+=s p s p s p s p s p s p s p s p s p s p s p s p

相关主题
文本预览
相关文档 最新文档