当前位置:文档之家› 第二章-信息论基本概念(1)

第二章-信息论基本概念(1)

信息论第二章答案

2.3 同时掷出两个正常的骰子,也就是各面呈现的概率都为1/6,求: (1) “3和5同时出现”这事件的自信息; (2) “两个1同时出现”这事件的自信息; (3) 两个点数的各种组合(无序)对的熵和平均信息量; (4) 两个点数之和(即2, 3, … , 12构成的子集)的熵; (5) 两个点数中至少有一个是1的自信息量。 解: (1) bit x p x I x p i i i 170.418 1 log )(log )(181 61616161)(=-=-== ?+?= (2) bit x p x I x p i i i 170.536 1 log )(log )(361 6161)(=-=-== ?= (3)两个点数的排列如下: 11 12 13 14 15 16 21 22 23 24 25 26 31 32 33 34 35 36 41 42 43 44 45 46 51 52 53 54 55 56 61 62 63 64 65 66 共有21种组合: 其中11,22,33,44,55,66的概率是36 16161=? 其他15个组合的概率是18 161612=?? symbol bit x p x p X H i i i / 337.4181log 18115361log 3616)(log )()(=??? ?? ?+?-=-=∑ (4)参考上面的两个点数的排列,可以得出两个点数求和的概率分布如下: sym bol bit x p x p X H X P X i i i / 274.3 61log 61365log 365291log 912121log 1212181log 1812361log 36 12 ) (log )()(36112181111211091936586173656915121418133612)(=? ?? ?? +?+?+?+?+?-=-=????????? ?=??????∑(5) bit x p x I x p i i i 710.136 11 log )(log )(3611116161)(=-=-== ??=

信息论与编码第一章答案

第一章信息论与基础 1.1信息与消息的概念有何区别? 信息存在于任何事物之中,有物质的地方就有信息,信息本身是看不见、摸不着的,它必须依附于一定的物质形式。一切物质都有可能成为信息的载体,信息充满着整个物质世界。信息是物质和能量在空间和时间中分布的不均匀程度。信息是表征事物的状态和运动形式。 在通信系统中其传输的形式是消息。但消息传递过程的一个最基本、最普遍却又十分引人注意的特点是:收信者在收到消息以前是不知道具体内容的;在收到消息之前,收信者无法判断发送者将发来描述何种事物运动状态的具体消息;再者,即使收到消息,由于信道干扰的存在,也不能断定得到的消息是否正确和可靠。 在通信系统中形式上传输的是消息,但实质上传输的是信息。消息只是表达信息的工具,载荷信息的载体。显然在通信中被利用的(亦即携带信息的)实际客体是不重要的,而重要的是信息。 信息载荷在消息之中,同一信息可以由不同形式的消息来载荷;同一个消息可能包含非常丰富的信息,也可能只包含很少的信息。可见,信息与消息既有区别又有联系的。 1.2 简述信息传输系统五个组成部分的作用。 信源:产生消息和消息序列的源。消息是随机发生的,也就是说在未收到这些消息之前不可能确切地知道它们的内容。信源研究主要内容是消息的统计特性和信源产生信息的速率。 信宿:信息传送过程中的接受者,亦即接受消息的人和物。 编码器:将信源发出的消息变换成适于信道传送的信号的设备。它包含下述三个部分:(1)信源编码器:在一定的准则下,信源编码器对信源输出的消息进行适当的变换和处理,其目的在于提高信息传输的效率。(2)纠错编码器:纠错编码器是对信源编码器的输出进行变换,用以提高对于信道干扰的抗击能力,也就是说提高信息传输的可靠性。(3)调制器:调制器是将纠错编码器的输出变换适合于信道传输要求的信号形式。纠错编码器和调制器的组合又称为信道编码器。 信道:把载荷消息的信号从发射端传到接受端的媒质或通道,包括收发设备在内的物理设施。信道除了传送信号外,还存储信号的作用。 译码器:编码的逆变换。它要从受干扰的信号中最大限度地提取出有关信源输出消息的信息,并尽可能地复现信源的输出。 1.3 同时掷一对骰子,要得知面朝上点数之和,描述这一信源的数学 模型。 解:设该信源符号集合为X

信息论基础各章参考答案

各章参考答案 2.1. (1)4.17比特 ;(2)5.17比特 ; (3)1.17比特 ;(4)3.17比特 2.2. 1.42比特 2.3. (1)225.6比特 ;(2)13.2比特 2.4. (1)24.07比特; (2)31.02比特 2.5. (1)根据熵的可加性,一个复合事件的平均不确定性可以通过多次实验逐步解除。如果我们使每次实验所获得的信息量最大。那么所需要的总实验次数就最少。用无砝码天平的一次称重实验结果所得到的信息量为log3,k 次称重所得的信息量为klog3。从12个硬币中鉴别其中的一个重量不同(不知是否轻或重)所需信息量为log24。因为3log3=log27>log24。所以在理论上用3次称重能够鉴别硬币并判断其轻或重。每次实验应使结果具有最大的熵。其中的一个方法如下:第一次称重:将天平左右两盘各放4枚硬币,观察其结果:①平衡 ②左倾 ③右倾。ⅰ)若结果为①,则假币在未放入的4枚币,第二次称重:将未放入的4枚中的3枚和已称过的3枚分别放到左右两盘,根据结果可判断出盘中没有假币;若有,还能判断出轻和重,第三次称重:将判断出含有假币的三枚硬币中的两枚放到左右两盘中,便可判断出假币。ⅱ)若结果为②或③即将左盘中的3枚取下,将右盘中的3枚放到左盘中,未称的3枚放到右盘中,观察称重砝码,若平衡,说明取下的3枚中含假币,只能判出轻重,若倾斜方向不变,说明在左、右盘中未动的两枚中其中有一枚为假币,若倾斜方向变反,说明从右盘取过的3枚中有假币,便可判出轻重。 (2)第三次称重 类似ⅰ)的情况,但当两个硬币知其中一个为假,不知为哪个时, 第三步用一个真币与其中一个称重比较即可。 对13个外形相同的硬币情况.第一次按4,4,5分别称重,如果假币在五个硬币的组里,则鉴 别所需信息量为log10>log9=2log3,所以剩下的2次称重不能获得所需的信息. 2.6. (1)215 log =15比特; (2) 1比特;(3)15个问题 2. 7. 证明: (略) 2.8. 证明: (略) 2.9. 31)(11= b a p ,121 )(21=b a p , 121 )(31= b a p , 61)()(1312= =b a b a p p , 241)()()()(33233222= ===b a b a b a b a p p p p 。 2.10. 证明: (略) 2.11. 证明: (略)

信息论与编码习题与答案第二章

第一章 信息、消息、信号的定义?三者的关系? 通信系统的模型?各个主要功能模块及作用? 第二章 信源的分类? 自信息量、条件自信息量、平均自信息量、信源熵、不确定度、条件熵、疑义度、噪声熵、联合熵、互信息量、条件互信息量、平均互信息量以及相对熵的概念?计算方法? 冗余度? 具有概率为)(x i p 的符号x i 自信息量:)(log )(x x i i p I -= 条件自信息量:)(log )( y x y x i i i i p I -= 平均自信息量、平均不确定度、信源熵:∑-=i i i x x p p X H )(log )()( 条件熵:)(log ),()(),()(y x y x y x y x j i j ij i j i j ij i p p I p Y X H ∑∑-== 联合熵:),(log ),(),(),()(y x y x y x y x j i j ij i j i j ij i p p I p Y X H ∑∑-== 互信息:) ()(log )()() ()(log ),();(y x y x y x y x y y x j i j i j ij i j i j j ij i p p p p p p p Y X I ∑∑= = 熵的基本性质:非负性、对称性、确定性 2.3 同时掷出两个正常的骰子,也就是各面呈现的概率都为1/6,求: (1) “3和5同时出现”这事件的自信息; (2) “两个1同时出现”这事件的自信息; (3) 两个点数的各种组合(无序)对的熵和平均信息量; (4) 两个点数之和(即2, 3, … , 12构成的子集)的熵; (5) 两个点数中至少有一个是1的自信息量。 解:(1) bit x p x I x p i i i 170.418 1 log )(log )(18 1 61616161)(=-=-== ?+?= (2) bit x p x I x p i i i 170.536 1 log )(log )(361 6161)(=-=-== ?=

信息论与编码第二章答案解析

2-1、一阶马尔可夫链信源有3个符号 {}123,,u u u ,转移概率为:1 112 ()u p u =, 2112()u p u =,31()0u p u =,1213()u p u = ,22()0u p u =,3223()u p u =,1313()u p u =,2323()u p u =,33()0u p u =。画出状态图并求出各符号稳态概率。 解:由题可得状态概率矩阵为: 1/21/2 0[(|)]1/302/31/32/30j i p s s ????=?? ???? 状态转换图为: 令各状态的稳态分布概率为1W ,2W ,3W ,则: 1W = 121W +132W +133W , 2W =121W +233W , 3W =23 2W 且: 1W +2W +3W =1 ∴稳态分布概率为: 1W = 25,2W =925,3W = 625 2-2.由符号集{0,1}组成的二阶马尔可夫链,其转移概率为:P(0|00)=0.8,P(0|11)=0.2,P(1|00)=0.2,P(1|11)=0.8,P(0|01)=0.5,p(0|10)=0.5,p(1|01)=0.5,p(1|10)=0.5画出状态图,并计算各符号稳态概率。 解:状态转移概率矩阵为: 令各状态的稳态分布概率为1w 、2w 、3w 、4w ,利用(2-1-17)可得方程组。 0.8 0.2 0 00 0 0.5 0.5()0.5 0.5 0 00 0 0.2 0.8j i p s s ?? ?? ? ?=??????

111122133144113211222233244213 311322333344324411422433444424 0.80.50.20.50.50.20.50.8w w p w p w p w p w w w w p w p w p w p w w w w p w p w p w p w w w w p w p w p w p w w =+++=+??=+++=+?? =+++=+??=+++=+? 且12341w w w w +++=; 解方程组得:12345141717514w w w w ?=???=???=???=? 即:5(00)141(01)71(10)75(11)14 p p p p ? =???=?? ?=???=? 2-3、同时掷两个正常的骰子,也就是各面呈现的概率都是16 ,求: (1)、“3和5同时出现”事件的自信息量; (2)、“两个1同时出现”事件的自信息量; (3)、两个点数的各种组合的熵或平均信息量; (4)、两个点数之和的熵; (5)、两个点数中至少有一个是1的自信息量。 解:(1)3和5同时出现的概率为:1111 p(x )=26618 ??= 11 I(x )=-lb 4.1718 bit ∴= (2)两个1同时出现的概率为:2111 p(x )=6636 ?= 21 I(x )=-lb 5.1736 bit ∴= (3)两个点数的各种组合(无序对)为: (1,1),(1,2),(1,3),(1,4),(1,5),(1,6) (2,2),(2,3),(2,4),(2,5),(2,6) (3,3), (3,4),(3,5),(3,6) (4,4),(4,5),(4,6)

信息论第二章答案

试问四进制、八进制脉冲所含信息量是二进制脉冲的多少倍? 解: 四进制脉冲可以表示4个不同的消息,例如:{0, 1, 2, 3} 八进制脉冲可以表示8个不同的消息,例如:{0, 1, 2, 3, 4, 5, 6, 7} 二进制脉冲可以表示2个不同的消息,例如:{0, 1} 假设每个消息的发出都是等概率的,则: 四进制脉冲的平均信息量symbol bit n X H / 24log log )(1=== 八进制脉冲的平均信息量symbol bit n X H / 38log log )(2=== 二进制脉冲的平均信息量symbol bit n X H / 12log log )(0=== 所以: 四进制、八进制脉冲所含信息量分别是二进制脉冲信息量的2倍和3倍。 一副充分洗乱了的牌(含52张牌),试问 (1) 任一特定排列所给出的信息量是多少? (2) 若从中抽取13张牌,所给出的点数都不相同能得到多少信息量? 解: (1) 52张牌共有52!种排列方式,假设每种排列方式出现是等概率的则所给出的信息量是: ! 521)(= i x p bit x p x I i i 581.225!52log )(log )(==-= (2) 52张牌共有4种花色、13种点数,抽取13张点数不同的牌的概率如下: (a)p(x i )=52/52 * 48/51 * 44/50 * 40/49 * 36/48 * 32/47 * 28/46 * 24/45 * 20/44 * 16/43 * 12/42 * 8/41 * 4/40= (b)总样本:C 1352, 其中13点数不同的数量为4*4*4*…*4=413 。所以,抽取13张点数不同的牌的概率: bit C x p x I C x p i i i 208.134 log )(log )(4)(1352 13 13 52 13 =-=-== 居住某地区的女孩子有25%是大学生,在女大学生中有75%是身高160厘米以上的,而女孩子中身高160厘米以上的占总数的一半。假如我们得知“身高160厘米以上的某女孩是大学生”的消息,问获得多少信息量? 解: 设随机变量X 代表女孩子学历 X x 1(是大学生) x 2(不是大学生) P(X) 设随机变量Y 代表女孩子身高 Y y 1(身高>160cm ) y 2(身高<160cm ) P(Y) 已知:在女大学生中有75%是身高160厘米以上的

信息论第二章答案(南邮研究生作业)

2-1 同时掷两个正常的骰子,也就是各面呈现的概率都是1/6,求: (1)“3和5同时出现”这事件的自信息量。 (2)“两个1同时出现”这事件的自信息量。 (3)两个点数的各种组合(无序对)的熵或平均信息量。 (4)两个点数之和(即2,3,…,12构成的子集)的熵。 (5)两个点数中至少有一个是1的自信息。 解: (1) bit x p x I x p i i i 170.418 1log )(log )(18 161616161)(=-=-==?+?= (2) bit x p x I x p i i i 170.536 1log )(log )(36 16161)(=-=-==?= (3) 两个点数的排列如下: 11 12 13 14 15 16 21 22 23 24 25 26 31 32 33 34 35 36 41 42 43 44 45 46 51 52 53 54 55 56 61 62 63 64 65 66 共有21种组合: 其中11,22,33,44,55,66的概率是36 16161=? 其他15个组合的概率是18 161612=?? symbol bit x p x p X H i i i / 337.4181log 18115361log 3616)(log )()(=??? ?? ?+?-=-=∑ (4) 参考上面的两个点数的排列,可以得出两个点数求和的概率分布如下:

symbol bit x p x p X H X P X i i i / 274.3 61log 61365log 365291log 912121log 1212181log 1812361log 3612 ) (log )()(361121811112 11091936 586 1736 569 1512 1418 1336 12)(=? ?? ?? +?+?+?+?+?-=-=?? ???? ????=???? ??∑(5) bit x p x I x p i i i 710.136 11log )(log )(36 11116161)(=-=-== ??= 2-2 设有一离散无记忆信源,其概率空间为 []?? ? ? ??=====8/14 /14 /18 /332104321x x x x P X (1) 求每个符号的自信息量; (2) 若信源发出一消息符号序列为(202 120 130 213 001 203 210 110 321 010 021 032 011 223 210),求该消息序列的自信息量及平均每个符号携带的信息量。 解:12 2 118()log log 1.415() 3 I x bit p x === 同理可以求得233()2,()2,()3I x bit I x bit I x bit === 因为信源无记忆,所以此消息序列的信息量就等于该序列中各个符号的信息量之和 就有:123414()13()12()6()87.81I I x I x I x I x bit =+++= 平均每个符号携带的信息量为 87.81 1.9545 =bit/符号 2-3 有一个可旋转的圆盘,盘面上被均匀地分成38份,用1,2,…,38数字标示,其中有 2份涂绿色,18份涂红色,18份涂黑色,圆盘停转后,盘面上指针指向某一数字和颜色。 (1)若仅对颜色感兴趣,计算平均不确定度; (2)若仅对颜色和数字都感兴趣,计算平均不确定度; (3)如果颜色已知时,计算条件熵。 解:令X 表示指针指向某一数字,则X={1,2,……….,38} Y 表示指针指向某一种颜色,则Y={l 绿色,红色,黑色} Y 是X 的函数,由题意可知()()i j i p x y p x =

信息论讲义11

第一章引论 1-1信息与信息科学 1-1-1信息的概念 ▲信息的定义:很难给出,信息的定义是信息论研究的一个基本内容。象物质,能量一样越基本的概念越难以给出明确的定义。 ▲信息的概念:信息是可以传递的,具有不确定性的消息(情报,指令,数据,信号)中所包含的表示事物特性的内容。 ▲几个要点: △信息不是事物的本身,信息是抽象的。而消息,情报,指令,数据等本身不是信息。 △Shannon认为:信息是关于环境事实的可以通信的知识。 △Winner认为:信息是人们在适应外部世界并且使这种适应反作用于外部世界的过程中,同外部世界进行交换的内容。 △近代人认为:信息是具有新内容的消息;是对于决策有价值的情报;是一切所感知的信号,信息就是知识等。 △Shannon信息论认为:信息的多少等于无知度的大小。人们已知的消息不是信息,而好象,大概,可能之类的不确切的内容包含着信息。(不能说信息冗余、信息压缩)1-1-2信息科学 ▲信息科学是研究信息的概念,相关理论和应用的科学,信息科学是一门新兴科学,边缘学科。 ▲信息科学的特点:(1)多学科--它与许多基础科学和应用技术有关,互相渗透,如数学,逻辑学,心理学,语言文字学,生物学,控制论,计算机科学,通信技术,仿生学,人工智能技术。(2)产业化--它应用服务于国民经济和社会生活的各个方面,从而形成一个新兴产业----信息产业。 ▲信息科学的研究范围: ☆信息源:自然信息源(物理,化学,天体,地理,生物);社会信息源(管理,金融,商业);知识信息源(古今中外) ☆信息载体:第一载体(语言);第二载体(文字);第三载体(电磁波)。 ☆信息的采集与转换:传感器,雷达,视,听,触,力,声光热点磁。 ☆信息的传输:光,电磁波,神经,意念。 ☆信息的存储与处理:计算机,视听系统。 1-1-3信息的性质 ⑴信息的可扩充性:相对物质和能量而言,信息资源没有限度,永远不会耗尽,而且回越来越多,信息爆炸,知识爆炸,能源危机。 ⑵信息的可压缩性:通过人脑的归纳和综合,信息可精炼和压缩,产生专家系统,知识库。 ⑶信息的可替代性:信息可替代有形物质,信息出口,情报出口。 ⑷信息的可传递性:人与人之间,人与物之间,细胞,天体之间。 ⑸信息的可扩散性:总是以各种方式向外部扩散,绝对保密是无法实现的。 ⑹信息的可共享性:信息无法垄断,不能做转手交易。

信息论与编码理论第二章习题答案

I (X ;Y=1)= P(x/Y 1)I(x;Y 1) x P(x/Y 1)log P(x/Y 1) P(x) = P(X 0/Y 1)log P(X 0/Y 1) P(X 0) P(X 1/Y 1)log P(X 1/Y 1) P(X 1) 部分答案,仅供参考。 信息速率是指平均每秒传输的信息量点和划出现的信息量分别为log3Jog3, 2’ 一秒钟点和划出现的次数平均为 1 15 2 1 ~4 0.20.4 - 3 3 一秒钟点和划分别出现的次数平均为巴5 4 4 那么根据两者出现的次数,可以计算一秒钟其信息量平均为10 log 3 5 竺 5 4 2 4 4 2 解: ⑻骰子A和B,掷出7点有以下6种可能: A=1,B=6; A=2,B=5; A=3,B=4; A=4,B=3; A=5,B=2; A=6,B=1 概率为6/36=1/6,所以信息量 -log(1/6)=1+log3 ~ bit (b)骰子A和B,掷出12点只有1种可能: A=6,B=6 概率为1/36,所以信息量 -log(1/36)=2+log9 ~ bit 解: 出现各点数的概率和信息量: 1 点:1/21 , log21 ?bit ; 2 点:2/21 , log21-1 ?bit ; 3 点:1/7 , log7 4 点:4/21 , log21-2 5 点:5/21 , log (21/5 )~; 6 点:2/ 7 , log(7/2)? 平均信息量: (1/21) X +(2/21) X +(1/7) X +(4/21) X +(5/21) X +(2/7) 解: X=1:考生被录取;X=0考生未被录取; Y=1:考生来自本市;Y=0考生来自外地; Z=1:考生学过英语;z=o:考生未学过英语 P(X=1)=1/4, P( X=q=3/4; P( Y=1/ X=1)=1/2 ;P( Y=1/ X=0)=1/10 ;P(Z=1/ Y=1 )=1, P( Z=1/ X=0, Y=0 )=, P( Z=1/ X=1, Y=0 )=, P(Z=1/Y=0)= (a)P(X=0,Y=1)=P(Y=1/X=0)P(X=0)=, P(X=1,Y=1)= P(Y=1/X=1)P(X=1)= P(Y=1)= P(X=0,Y=1)+ P(X=1,Y=1)= P(X=0/Y=1)=P(X=0,Y=1)/P(Y=1)=, P(X=1/Y=1)=P(X=1,Y=1)/P(Y=1)=

信息论习题答案第二章---陈前斌版

第2章习题 2-3 同时掷两个正常的骰子,也就是各面呈现的概率都是l/6,求: (1) “3和5同时出现”事件的自信息量; (2)“两个1同时出现”事件的自信息量; (3)两个点数的各种组合(无序对)的熵或平均信息量; (4) 两个点数之和(即 2,3,…,12构成的子集)的熵; (5)两个点数中至少有一个是1的自信息。 解:(1)P (3、5或5、3)=P (3、5)+P (5、3)=1/18 I =log2(18)= 。 (2)P (1、1)=l/36。I =log2(36)=。 (3)相同点出现时(11、22、33、44、55、66)有6种,概率1/36。 不同点出现时有15种,概率1/18。 H (i ,j )=6*1/36*log 2(36)+15*1/18*log 2(18)=事件。 (4) H(i+j)=H(1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36) =事件。 (5)P (1、1or1、j or i 、1)=1/36+5/36+5/36=11/36。 I =log2(36/11)= 2-5 居住某地区的女孩中有25%是大学生,在女大学生中有75%身高为1.6m 以 上,而女孩中身高1.6m 以上的占总数一半。假如得知“身高1.6m 以上的某女孩是大学 生”的消息,问获得多少信息量、 解:P (女大学生)=1/4;P (身高>1.6m / 女大学生)=3/4;P (身高>1.6m )=1/2; P (女大学生 / 身高>1.6m )=P (身高>1.6m 、女大学生)/P (身高>1.6m ) =3/4*1/4*2=3/8 I =log2(8/3)=。 2-7两个实验123{,,}X x x x =和123{,,}Y y y y =,联合概率()i j ij p x y p =为 11121321222331 32 337/241/2401/241/41/2401/247/24p p p p p p p p p ???? ????=???????????? (1)如果有人告诉你X 和Y 的实验结果,你得到的平均信息量是多少

信息论与编码第二章答案

第二章 信息的度量 2.1 信源在何种分布时,熵值最大?又在何种分布时,熵值最小? 答:信源在等概率分布时熵值最大;信源有一个为1,其余为0时熵值最小。 2.2 平均互信息量I(X;Y)与信源概率分布q(x)有何关系?与p(y|x)又是什么关系? 答: 若信道给定,I(X;Y)是q(x)的上凸形函数; 若信源给定,I(X;Y)是q(y|x)的下凸形函数。 2.3 熵是对信源什么物理量的度量? 答:平均信息量 2.4 设信道输入符号集为{x1,x2,……xk},则平均每个信道输入符号所能携带的最大信息量是多少? 答:k k k xi q xi q X H i log 1log 1)(log )() (=- =-=∑ 2.5 根据平均互信息量的链规则,写出I(X;YZ)的表达式。 答:)|;();();(Y Z X I Y X I YZ X I += 2.6 互信息量I(x;y)有时候取负值,是由于信道存在干扰或噪声的原因,这种说法对吗? 答:互信息量) ()|(log ) ;(xi q yj xi Q y x I =,若互信息量取负值,即Q(xi|yj)

答: 由图示可知:4 3)|(4 1)|(32)|(31)|(41)|(43)|(222111110201= = == == s x p s x p s x p s x p s x p s x p 即: 4 3)|(0)|(4 1)|(31)|(32)|(0)|(0 )|(4 1)|(4 3)|(222120121110020100= == = ==== = s s p s s p s s p s s p s s p s s p s s p s s p s s p 可得: 1 )()()() (43)(31)()(31)(41)()(41)(43)(210212101200=+++ = +=+=s p s p s p s p s p s p s p s p s p s p s p s p

信息论第1章

第一章信息的定性描述 第一节对信息的初步认识 一. 信息社会 当今,世界上信息革命的热潮一浪高过一浪。近年来,移动电话、个人电脑和网络用户正以高于摩尔定律的速度迅猛增长。人们都在谈论着信息社会、信息革命和网络时代,信息似乎成了个很时髦的字眼儿。就连中国人平常打招呼的话“你吃饭了吗?”也被有些人改成“你上网了吗?”但这绝不是什么赶时髦,也绝不是什么偶然现象,而是社会发展的必然趋势。因为在信息社会里,人们最关心的是信息问题,而不是吃饭问题。“民以食为天”的信条将会逐渐被“民以信为天”所代替。社会学家和未来学家普遍认为,20世纪末和21世纪初,是信息革命爆发的时期。一些新技术的突破和新产业的出现,使社会生产力发生了新的飞跃,人们的生活也发生了新的变化,人类社会正在进入信息化社会。所谓信息化社会,就是以信息产业为中心,使社会生产、生活和经济都发展起来的社会。在这种社会中, ◆信息成了比物质或能源更为重要的资源, ◆对信息产业成了重要的产业。 ◆从事信息工作者成了主要的劳动者。 ◆信息和知识成了生产力发展的决定因素。 二. 信息的普遍性 其实,信息并不是什么新鲜东西, 信息无时不在,无处不有。 人们生活在信息的海洋里,天天都要通过自己的感觉器官感受各种外界信息。例如,衣食住行,读书看报,听广播,看电视等等。人们要进行社会活动就需要有信息交流。例如,除了书信、电话、电报之外,天天都要同许多人交谈、交往。人们还要进行信息处理和存储。例如,要把观察、接收到的大量事物、数据和资料进行分类、分析、整理和纪录。 不仅如此,信息也是人类自身进化的一个基本条件。恩格斯对于人类的进化过程,曾有过这样一段极其精彩的描述:“……这些猿类,大概是首先由于它们生活方式的影响……渐渐直立行走……手变得自由了……随着手的发展,随着劳动而开始的人对自然的统治,在每一个新的发展中扩大了人的眼界。……另一方面,劳动的发展必然促使社会成员更加紧密地互相结合起来,因为它使互相帮助和共同协作的场合增多了,并且使每个人都清楚地意识到这种共同协作的好处。一句话,这些正在形成中的人,已经到了彼此间有些什么非说不可的地步了。需要产生了自己的器官:猿类不发达的喉头,由于音调的抑扬顿挫的不断加多,缓慢地然而肯定地得到改造,而口部的器官也逐渐学会了发出一个个清晰的音节……首先是劳动,然后是语言和劳动一起,成了两个最主要的推动力,在它们的影响下,猿的脑髓就逐渐地变成人的脑髓……由于随着完全形成的人的出现而产生了新的因素——社会。”在这里,我们看到了一幅清晰的图景,它说明这些正在形成中的人,怎样在与外部的联系中产生了感知信息与利用信息的需要,因而逐渐形成和发展了自己的信息器官:眼、耳、口、脑等等。形成和发展这些器官,形成和发展语言,正是为了从自然界取得信息和利用信息来强化自己,

信息论基础 答案2

《信息论基础》答案 一、填空题(共15分,每空1分) 1、若一连续消息通过某放大器,该放大器输出的最大瞬时电压为b ,最小瞬时电压为a 。若消息从放大器中输出,则该信源的绝对熵是 无穷大 ;其能在每个自由度熵的最大熵是 ()log b-a . 2、高斯白噪声信道是指 信道噪声服从正态分布,且功率谱为常数 。 3、若连续信源的平均功率为5 W ,则最大熵为12log10π ? e ,达到最大值的条件是 高斯信道 . 4、离散信源存在剩余度的原因是 信源有记忆(或输出符号之间存在相关性) 和 不等概 。 5、离散无记忆信源在进行无失真变长信源编码时,编码效率最大可以达到 1 。 6、离散无记忆信源在进行无失真变长信源编码时,码字长度是变化的。根据信源符号的统计特性,对概率大的符号用 短 码,对概率小的符号用 长 码,这样平均码长就可以降低,从而提高编码效率。 7、八进制信源的最小熵为 0 ,最大熵为 3 bit 。 8、一个事件发生概率为0。125,则自信息量为 3 bit 。 9、在下面空格中选择填入数字符号“,,,=≥≤>”或“<" ()H XY = ()()+H Y H X Y ≤ ()()+H Y H X 二、判断题(正确打√,错误打×)(共5分,每小题1分) 1) 离散无记忆等概信源的剩余度为0。 ( √ ) 2) 离散无记忆信源N 次扩展源的熵是原信息熵的N 倍 ( √ ) 3) 互信息可正、可负、可为零。 ( √ ) 4) 信源的真正功率P 永远不会大于熵功率P ,即P P ≤ ( × ) 5) 信道容量与信源输出符号的概率分布有关。 ( × ) 三、(5分)已知信源的概率密度函数()p x 如下图所示,求信源的相对熵 0.5

信息论第一章

第一章 1-1 信息.消息和信号的定义是什么?三者的关系是什么? 答:定义:信息是事物运动状态或存在方式的不确定性的描述。 用文字、符号、数据、语言、音符、图片、图像等能够被人们感觉器官所感知的形式,把客观物质运动和主观思维活动的状态表达出来就成为消息。 把消息换成适合信道传输的物理量,这种物理量称为信号。 三者的关系:消息包含信息,是信息的载体,但不是物理性的。信号是信息的载体,是物理性的。 1-3 写出信息论的定义(狭义信息论和广义信息论). 答:狭义信息论:信息论是在信息可以度量的基础上有效地和可靠地传递信息的科学,它涉及信息的度量、信息的特性、信息传输速率、信道容量、干扰对信息传输的影响等方面的知识。 广义信息论:信息论包括通信的全部统计问题的研究、香农信息论、信号设计、噪声理论、信号检测与估值等,还包括如医学、生物学、心理学、遗传学、神经生理学、语言学甚至社会学和科学管理学中有关信息的问题。 1-5信息有哪些分类? 答:( 1 )按信息的性质分类:语法信息,语义信息和语用信息; (2)按观察过程分类:实在信息,先验信息和实得信息; (3)按信息的地位分类:客观信息(效果信息、环境信息)和主观信息(决策信息,指令、控制和目标信息); (4)按信息的作用分类:有用信息、无用信息和干扰信息; ( 5)按信息的逻辑意义分类:真实信息、虚假信息和不定信息; (6)按信息的传递方向分类:前馈信息和反馈信息; ( 7)按信息的生成领域分类:宇宙信息、自然信息、思维信息和社会信息;(8)按信息的信息源性质分类:语言信息、图像信息、数据信息、计算信息和文字信息; (9)按信息的信号形成分类:连续信息、离散信息和半连续信息。 09电子2 22 何清林

信息论第二章答案

试问四进制、八进制脉冲所含信息量是二进制脉冲的多少倍 解: 四进制脉冲可以表示4个不同的消息,例如:{0, 1, 2, 3} 八进制脉冲可以表示8个不同的消息,例如:{0, 1, 2, 3, 4, 5, 6, 7} 二进制脉冲可以表示2个不同的消息,例如:{0, 1} 假设每个消息的发出都是等概率的,则: 四进制脉冲的平均信息量symbol bit n X H / 24log log )(1=== 八进制脉冲的平均信息量symbol bit n X H / 38log log )(2=== 二进制脉冲的平均信息量symbol bit n X H / 12log log )(0=== 所以: 四进制、八进制脉冲所含信息量分别是二进制脉冲信息量的2倍和3倍。 一副充分洗乱了的牌(含52张牌),试问 (1) 任一特定排列所给出的信息量是多少 (2) 若从中抽取13张牌,所给出的点数都不相同能得到多少信息量 解: (1) 52张牌共有52!种排列方式,假设每种排列方式出现是等概率的则所给出的信息量是: ! 521)(= i x p bit x p x I i i 581.225!52log )(log )(==-= (2) 52张牌共有4种花色、13种点数,抽取13张点数不同的牌的概率如下: (a)p(x i )=52/52 * 48/51 * 44/50 * 40/49 * 36/48 * 32/47 * 28/46 * 24/45 * 20/44 * 16/43 * 12/42 * 8/41 * 4/40= (b)总样本:C 1352, 其中13点数不同的数量为4*4*4*…*4=413。所以,抽取13张点数不同的牌的概率: bit C x p x I C x p i i i 208.134 log )(log )(4)(1352 13 13 52 13 =-=-== 居住某地区的女孩子有25%是大学生,在女大学生中有75%是身高160厘米以上的,而女孩子中身高160厘米以上的占总数的一半。假如我们得知“身高160厘米以上的某女孩是大学生”的消息,问获得多少信息量 解: 设随机变量X 代表女孩子学历 X x 1(是大学生) x 2(不是大学生) P(X) 设随机变量Y 代表女孩子身高 Y y 1(身高>160cm ) y 2(身高<160cm ) P(Y) 已知:在女大学生中有75%是身高160厘米以上的

信息论基础复习提纲

第一章 绪论 1、什么是信息?香农对于信息是如何定义的。 答:信息是事物运动状态或存在方式的不确定性的描述(Information is a measure of one's freedom of choice when one selects a message )。 2、简述通信系统模型的组成及各部分的含义。 答:(1)、信源:信源是产生消息的源。信源产生信息的速率---熵率。 (2)、编码器:编码器是将消息变成适合于信道传送的信号的设 备。包括信源编码器(提高传输效率)、信道编码器(提高传输可靠性)、调制器。 (3)、信道:信道是信息传输和存储的媒介。 (4)、译码器:译码是编码的逆变换,分为信道译码和信源译码。 (5)、信宿:信宿是消息的接收者(人或机器)。 3、简述香农信息论的核心及其特点。 答:(1)、香农信息论的核心:在通信系统中采用适当的编码后能够实现高效率和高可靠性的信息传输,并得出了信源编码定理和信道编码定理。 (2)、特点:①、以概率论、随机过程为基本研究工具。 ②、研究的是通信系统的整个过程,而不是单个环节,并以编、译码器为重点。 ③、关心的是最优系统的性能和怎样达到这个性能(并不具体设计系统)。 ④、要求信源为随机过程,不研究信宿。 第二章 信息的度量 2.1 自信息和互信息 1、自信息(量): (1)、定义:一个事件(消息)本身所包含的信息量,它是由事件的不确定性决定的。某个消息i x 出现的不确定性 的大小定义为自信息,用这个消息出现的概率的对数的负值来表示: ()()() i i i x p x p x I 1 log log =-=

信息论与编码理论第二章习题答案

部分答案,仅供参考。 信息速率是指平均每秒传输的信息量 点和划出现的信息量分别为3log ,2 3log , 一秒钟点和划出现的次数平均为 4 15314.0322.01= ?+? 一秒钟点和划分别出现的次数平均为4 5.410 那么根据两者出现的次数,可以计算一秒钟其信息量平均为2 53log 4 153log 4 52 3log 4 10-=+ 解: (a)骰子A 和B ,掷出7点有以下6种可能: A=1,B=6; A=2,B=5; A=3,B=4; A=4,B=3; A=5,B=2; A=6,B=1 概率为6/36=1/6,所以信息量 -log(1/6)=1+log3≈ bit (b) 骰子A 和B ,掷出12点只有1种可能: A=6,B=6 概率为1/36,所以信息量 -log(1/36)=2+log9≈ bit 解: 出现各点数的概率和信息量: 1点:1/21,log21≈ bit ; 2点:2/21,log21-1≈ bit ; 3点:1/7,log7≈; 4点:4/21,log21-2≈; 5点:5/21,log (21/5)≈; 6点:2/7,log(7/2)≈ 平均信息量: (1/21)×+(2/21)×+(1/7)×+(4/21)×+(5/21)×+(2/7)×≈ 解: X=1:考生被录取; X=0:考生未被录取; Y=1:考生来自本市;Y=0:考生来自外地; Z=1: 考生学过英语;Z=0:考生未学过英语 P(X=1)=1/4, P(X=0)=3/4; P(Y=1/ X=1)=1/2; P(Y=1/ X=0)=1/10; P(Z=1/ Y=1)=1, P(Z=1 / X=0, Y=0)=, P(Z=1/ X=1, Y=0)=, P(Z=1/Y=0)= (a) P(X=0,Y=1)=P(Y=1/X=0)P(X=0)=, P(X=1,Y=1)= P(Y=1/X=1)P(X=1)= P(Y=1)= P(X=0,Y=1)+ P(X=1,Y=1)= P(X=0/Y=1)=P(X=0,Y=1)/P(Y=1)=, P(X=1/Y=1)=P(X=1,Y=1)/P(Y=1)= I (X ;Y=1)=∑∑=====x x ) P() 1Y /(P log )1Y /(P )1Y (I )1Y /(P x x x x;x =1) P(X ) 1Y /1X (P log )1Y /1X (P 0)P(X )1Y /0X (P log )1Y /0X (P =====+=====

信息论作业第一章

第一章 信息论基础 课后习题 1.7同时掷一对均匀的骰子,要得知面朝上点数之和,描述这一信源的数学模型。 解:两个点数的排列如下: 11 12 13 14 15 16 21 22 23 24 25 26 31 32 33 34 35 36 41 42 43 44 45 46 51 52 53 54 55 56 61 62 63 64 65 66 参考上面的两个点数的排列,可以得出两个点数求和的概率分布如下: ?? ????????=??????36112181111211091936586173656915121418133612)(X P X 故:该信源的数学模型如上。 1.8居住在某地区的女孩中有25%是大学生,在女大学生中75%身高 1.6m 以上,而女孩中身高1.6m 以上的占总数的一半,要从信源消息中得知身高及学历,描述这一信源。 解:设随机变量X 代表女孩子学历 X X1(是大学生) X2(不是大学生)

P(X) 0.25 0.75 设随机变量Y 代表女孩子身高 Y Y1 (身高>1.6m ) Y2(身高<1.6m ) P(Y) 0.5 0.5 1.9设有一个二阶二元马尔可夫信源,其4种状态的转移概率矩阵为 ????? ???????=7.03.000005.05.05.05.000002.08.0p ,画出状态图并求稳态下各状态出现的概率。 1.10有一个二元对称信道,信道误码率P=0.06,设该信道以1000个符号/秒的速率传输输入符号,现有一消息序列,共有9500个符号,并设消息中q(0)=q(1)=0.5,问从信号传输的角度来考虑,10秒能否将消息无失真地传送完? 解:06.0)1()1()0(=-?+?=p q p q P e ,此信道10秒内能无失真传输的最大信息量为950094001000)1(10<=?-?e P ,故不能。 1.12某有扰离散信道的输入是等概率出现的A 、B 、C 、D 四个字母,信道正确传输的概率是0.5,等概率错误传输成其他三个字母,描述这一信道的数学模型,并计算相应的后验概率。 解:P(A)=P(B)=P(C)=P(D)=1/4 P=1-P=0.5 P(A|A)=P(B|B)=P(C|C)=P(D|D)=1/2 P(B|A)=P(C|A)=P(D|A)=1/6 P(A|B)=P(C|B)=P(D|B)=1/6

相关主题
文本预览
相关文档 最新文档