信息论期末复习
- 格式:ppt
- 大小:305.00 KB
- 文档页数:60
判断30名词解释4*5计算3道20分第一章1、自信息和互信息P6 公式2、信道P9 概念第二章1、离散平稳信源P18概念2、离散无记忆信源P19概念3、时齐马尔可夫信源P20概念4、自信息P22概念5、信息熵P25概念6、信息熵的基本性质P281)对称性2)确定性3)非负性4)扩展性5)可加性6)强可加性7)递增性8)极值性9)上凸性7、联合熵条件熵P42公式P43例题8、马尔克夫信源P54公式P55例题9、信源剩余度P5810、熵的相对率信源剩余度P5811、课后作业:2、4、13、21、22第三章1、有记忆信道P73概念2、二元对称信道BSC P743、前向概率、后向概率、先验概率、后验概率P764、条件熵信道疑义度、平均互信息P775、平均互信息、联合熵、信道疑义度、噪声熵计算公式P786、损失熵噪声熵 P797、平均互信息的特性P821)非负性2)极值性3)交互性4)凸状性8、信息传输率R P869、无噪无损信道P87概念10、有噪无损信道P88概念11、对称离散信道 P89概念12、对称离散信道的信道容量P90公式张亚威2012/06/20张亚威2012/06/2116、 数据处理定理 P113定理 17、 信道剩余度 P118公式 18、 课后作业:1、 3、 9第五章1、 编码:实质上是对信源的原始符号按一定的数学规则进行的一种变换。
2、 等长码 P172概念3、 等长信源编码定理 P1784、 编码效率 P1805、 克拉夫特不等式 P1846、 香农第一定理 P1917、 码的剩余度 P194第六章1、 最大后验概率准则 最小错误概率准则 P2002、 最大似然译码准则 P2013、 费诺不等式 P2024、 信息传输率(码率) P2055、 香农第二定理 P2156、 课后习题 3、第八章1、 霍夫曼码 最佳码 P2732、 费诺码 P2793、 课后习题 11、第八章1、 编码原则 译码原则 P3072、 定理9.1 P3133、 分组码的码率 P314公式4、 课后习题 3、一、 填空题1、 在现代通信系统中,信源编码主要用于解决信息传输中的 有效性 ,信道编码主要用于解决信息传输中的 可靠性 ,加密编码主要用于解决信息传输中的 安全性 。
1、平均自信息为表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。
平均互信息表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。
2、最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。
3、最大熵值为。
4、通信系统模型如下:5、香农公式为为保证足够大的信道容量,可采用(1)用频带换信噪比;(2)用信噪比换频带。
6、只要,当N足够长时,一定存在一种无失真编码。
7、当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。
8、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。
9、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。
按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。
按照信息的地位,可以把信息分成 客观信息和主观信息 。
人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的信息。
信息的 可度量性 是建立信息论的基础。
统计度量 是信息度量最常用的方法。
熵 是香农信息论最基本最重要的概念。
事物的不确定度是用时间统计发生 概率的对数 来描述的。
10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。
11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。
12、自信息量的单位一般有 比特、奈特和哈特 。
13、必然事件的自信息是 0 。
14、不可能事件的自信息量是 ∞ 。
15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。
16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。
17、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 。
18、离散平稳有记忆信源的极限熵,=∞H )/(lim 121-∞→N N N X X X X H 。
书中:1.信息科学,材料科学,能源科学仪器被称为当代的“三大支柱”。
2.带宽与数据传输速率信道带宽与数据传输速率的关系可以奈奎斯特(Nyquist)准则与香农(Shanon)定律描述。
奈奎斯特准则指出:如果间隔为π/ω(ω=2πf),通过理想通信信道传输窄脉冲信号,则前后码元之间不产生相互窜扰。
因此,对于二进制数据信号的最大数据传输速率Rmax 与通信信道带宽B (B=f,单位Hz)的关系可以写为:Rmax =2.f(bps);对于二进制数据若信道带宽B=f=3000Hz ,则最大数据传输速率为6000bps 。
香农定理则描述了有限带宽、有随机热噪声信道的最大传输速率与信道带宽、信噪比之间的关系。
香农定理指出:在有随机热噪声的信道上传输数据信号时,数据传输速率Rmax 与信道带宽B 、信噪比S/N 的关系为: Rmax =B.log2(1+S/N)3.自信息量的性质:非负性、必然事件信息量为0、不可能事件信息量为无穷、信息量是概率的单调递减函数。
4.当X 和Y 相互独立时,互信息为0.5.信源熵表征信源的平均不确定度,平均自信息量是消除信源不确定度所需要的信息的量度。
6信源熵H(X)与信息率R 和信道容量C 的关系:不论何种信道,只要信息率R 小鱼信道容量C ,总能找到一种编码,能在信道上以任意小的错误概率和任意接近于C 的传输率来传送信息。
反之,若R>C,则传输总要产生失真。
又由无失真信源编码定理可知,要做到几乎无失真信源编码,信息率R 必须大于信源熵H (X )。
故三者的关系为:H(x)<=R<=C7.保真度准则下的信源编码定理:即译码平均失真度大于允许失真度。
8.香农三个基本编码定理:无失真信源编码定理、信道编码定理和限失真信源编码定理。
三个基本概念:信源熵、信道容量和信息率失真函数。
9.信源编码、信道编码和安全编码信源编码是以提高通信有效性为目的的编码。
通常通过压缩信源的沉余度来实现。
信息论复习题期末答案1. 信息论的创始人是谁?答案:信息论的创始人是克劳德·香农。
2. 信息熵的概念是什么?答案:信息熵是衡量信息量的一个指标,它描述了信息的不确定性或随机性。
在信息论中,熵越高,信息的不确定性越大。
3. 请简述信源编码定理。
答案:信源编码定理指出,对于一个具有确定概率分布的离散无记忆信源,存在一种编码方式,使得信源的平均编码长度接近信源熵的值,且当信源长度趋于无穷大时,编码长度与信源熵之间的差距趋于零。
4. 什么是信道容量?答案:信道容量是指在特定的通信信道中,能够以任意小的错误概率传输信息的最大速率。
它是信道的最大信息传输率,通常用比特每秒(bps)来表示。
5. 香农公式是如何定义信道容量的?答案:香农公式定义信道容量为信道输入和输出之间的互信息量的最大值,可以表示为C = B log2(1 + S/N),其中C是信道容量,B是信道带宽,S是信号功率,N是噪声功率。
6. 差错控制编码的目的是什么?答案:差错控制编码的目的是为了检测和纠正在数据传输过程中可能发生的错误,以提高数据传输的可靠性。
7. 什么是线性码?答案:线性码是一种特殊的编码方式,其中任意两个合法编码的线性组合仍然是一个合法编码。
线性码通常可以用生成矩阵和校验矩阵来表示。
8. 卷积码和块码有什么区别?答案:卷积码和块码都是差错控制编码的类型,但它们的主要区别在于编码的结构和处理方式。
卷积码是连续的,其编码过程是按时间序列进行的,而块码是离散的,其编码过程是针对数据块进行的。
9. 什么是信道编码定理?答案:信道编码定理指出,对于任何给定的信道和任何小于信道容量的错误概率,都存在一种编码方式,可以使得错误概率趋近于零。
10. 请解释什么是信道编码的译码算法。
答案:信道编码的译码算法是一种用于从接收到的编码信号中恢复原始信息的方法。
常见的译码算法包括维特比算法、最大似然译码和最小均方误差译码等。
这些算法旨在最小化译码错误的概率。
自信息量:Harta p Nat a p bit a p a I i i e i i )(log )(log )(log )(102-=-=-=联合信息量:)(log )(2j i j i b a p b a I -=条件信息量:)/(log )/(2j i j ib a p b a I -=互信息量:)](/)/([log );(2i j i j i a p b a p b a I =信息的熵:∑=-=ni i i a p a p X H 12)(log )()(条件熵:∑∑==-=m j ni i j j i a b p b a p X YH 112)/(log )()/(联合熵:∑∑==-=m j ni j i j i b a p b a p XY H 112)(log )()(平均互信息量:)](/)/([log )();(112j mj ni i j j i b p a b p b a p X Y I ∑∑===马尔可夫信源问题: 1.n 元m 阶马尔科夫信源共有n m个稳定状态。
2. 用∑==mni i j i j s s p s p s p 1)/()()(和1)(1=∑=mni i s p 求各状态)(i s p ;3.极限熵:)/(log )/()(11i j ni nj i j i s s p s s p s p Hmm∑∑==∞-=4. 冗余度:0/1H H ∞-=ξ (H0表示等概分布信源的熵,2进制时为1)变长编码定理:m X H K m X H 22log /)(log /)(1≥>+信道容量问题:n 表示输入符号数,m 表示输出符号数。
bit/sign 无噪信道1(一一对应)信道容量:n C 2log =无噪信道2(一对多)信道容量:n C 2log =无噪信道3(多对一)信道容量:m C 2log = 对称信道(行列均可排列)信道容量:)..(log 212m q q q H m C-=当输入X 等概分布时,输出Y 也等概分布,此时达到信道容量。
第二章 信源熵一、自信息量1. 定义:一个随机事件发生某一结果后所带来的信息量称为自信息量,简称自信息。
定 义为其发生概率对数的负值。
若随机事件发生i a 的概率为)(i a p ,那么它的自信 息量为:)(log )(2i i a p a I -= (bit )2. 性质:在事件发生前,)(i a I 表示该事件发生的不确定性。
在事件发生后,)(i a I 表示事件发生所提供的信息量。
二、信源熵1. 定义: 已知单符号离散无记忆信源的数学模型我们定义信源各个离散消息的自信息量的数学期望为信源的平均信息量,一般称为信源的平均信息量: )(log )(])(1[log )]([)( 212i ni i i i a p a p a p E a I E X H ∑=-=== 2. 信源熵与平均自信息量之间的区别两者在数值上是相等的,但含义不同。
信源熵表征信源的平均不确定度,平均自信息量是消除不确定度所需要的信息的度量。
信源一定,不管它是否输出离散消息,只要这些离散消息具有一定的概率特性,必有信源的熵值,该熵值在总体平均的意义上才有意义,因而是一个确定值, 。
在离散信源的情况下,信源熵的值是有限的。
而信息量只有当信源输出离散消息并被接收后,才有意义,这就是给予接收者的信息度量。
3. 最大离散熵定理:信源X 中包含n 个不同离散消息时,信源熵H(X)有: n X H 2log )(≤当且仅当X 中各个消息出现的概率全相等时,上式取等号。
4. 扩展信源的信源熵:N 次扩展信源的信源熵:)()(X NH X H N=)(,),(,),(),( , , , ,,)( 2121⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡n i n i a p a p a p a p a a a a X P X三、平均互信息量 1. 定义:互信息),,2,1;,,2,1()/()()()(log );(2m j n i b a I a I a p b a p b a I j i i i j i j i ==-==在联合概率空间中的统计平均值。
第四章波形信源和波形信道4.1.1连续信源的差熵差熵(有称为相对熵或称微分熵)已不具有信息熵的物理含义。
但在任何包含有两个信息熵的“熵差”问题中,它能替代信息熵H(X)而具有信息的特征。
其单位是:对数以2为底,是比特/自由度;以e为底,是奈特/自由度;以10为底,是哈特/自由度。
4.1.2 多维连续平稳信源的信息熵则各连续型随机变量彼此统计独立,称为连续平稳无记忆信源。
否则,为平稳有记忆信源。
N维连续平稳信源可用下列一些差熵进行信息测度:1.联合差熵(1)二维联合差熵2.条件差熵(1)二维连续随机序列X=X1X2的条件差熵3.各种差熵之间的关系4.1.3 波形信源的差熵4.1.4 差熵的性质与离散信源的信息熵比较,连续信源的差熵具有以下一些性质:1.可加性任意两个相互关联的连续信源X和Y,有3.差熵可为负值不存在非负性。
4.极值性即最大差熵定理。
5.变换性连续信源输出的随机变量(或随机矢量)通过确定的一一对应变换,其差熵发生变化。
但对于离散信源来说,其信息熵是不变的。
4.1.5 最大差熵定理1.峰值功率受限(取值幅度受限)(1)连续随机变量X,其取值幅度限于区间[a,b]内,则其概率密度函数是均匀分布时,差熵具最大值。
最大值为3.协方差矩阵受限N维随机矢量X=X1X2…X N,其N维协方差矩阵C受限(即各随机变量X i 的均值限定为m i(i=1,2,…,N),随机变量X i与X j之间的二阶中心矩限定为μ(i,j=1,2,…,N),则N维高斯信源(即X~N(m i,C)的差熵最大,最大值为ij4.1.6 连续信源熵的变换1.连续随机变量4.1.8 波形信道和连续信道的分类和数学模型1.波形信道(模拟信道)信道的输入/输出信号都是平稳随机过程{x(t)}和{y(t)},则称之为波形信道。
波形信道在限频、限时条件下,根据取样定理,可离散化成多维连续信道。
2.多维连续信道4.加性信道信道中噪声对信号的作用:5.高斯白噪声信道若信道的噪声是高斯噪声,即噪声是平稳随机过程,其瞬时值的概率密度函数服从正态分布(高斯分布),则此信道称为高斯信道。
《信息论》复习资料信息论导论参考资料第⼀章概论●在认识论层次研究信息时,把只考虑到形式因素的部分称为语法信息,把只考虑到含义因素的部分称为语义信息;把只考虑到效⽤因素的部分称为语⽤信息。
⽬前,信息论中主要研究语法信息●归纳起来,⾹农信息论的研究内容包括: 1) 信息熵、信道容量和信息率失真函数2) ⽆失真信源编码定理、信道编码定理和保真度准则下的信源编码定理 3) 信源编码、信道编码理论与⽅法●⼀般认为,⼀般信息论的研究内容除⾹农信息论的研究内容外,还包括维纳的微弱信号检测理论:包括噪声理论、信号滤波与预测、统计检测与估计理论、调制理论等。
信息科学以信息为研究对象,信息科学以信息运动规律为研究内容,信息运动包括获取、传递、存储、处理和施⽤等环节。
消息、信息、信号●消息是由图像、声⾳、⽂字、数字等符号组成的序列。
●承载消息的载体称为信号●信息是通信系统传输和处理的对象,泛指消息和信号的具体内容和意义. ●三者关系:通信系统传输的是信号,信号承载着消息,消息中的不确定成分是信息。
第⼆章离散信源及离散熵●单符号离散信源的数学模型:1212()()()()n n x x x X P x P x P x P X = ⾃信息量:()log ()i x i I x P x =-,是⽆量纲的,⼀般根据对数的底来定义单位:当对数底为2时,⾃信息量的单位为⽐特(bit,binary unit);对数底为e 时,其单位为奈特(nat,nature unit);对数底为10时,其单位为哈特(Hart, Hartley)⾃信息量性质:I(x i )是随机量;I(x i )是⾮负值;I(x i )是P(x i )的单调递减函数。
●单符号离散信源的离散熵:1()[()]()()ni i i i H X E I x P x lbP x ===-∑,单位是⽐特/符号(bit/symbol)。
离散熵的性质和定理:H(X)的⾮负性;H(X)的上凸性;最⼤离散熵定理:()H X lbn ≤(证明)●如果除概率分布相同外,直到N 维的各维联合概率分布也都与时间起点⽆关,即:111111()()()()()()k l k k l l k k k N l l l N P X P X P X X P X X P X X X P X X X ++++-++-===则称该多符号离散信源为N 维离散平稳信源。
信息论与编码期末复习(基本上涵盖了所有考点,有了这份资料,期末绝不会挂科)1填空题1、信息论研究的主要问题是如何提高信息传输系的性和性,对应这两个性能数字通讯系统量化指标分别为和。
2、若给定离散概率空间[X,p(x)]表示的信源,则该信源中的信源消息(事件)x的自信息量可表I(x)= ;该信源平均自信息量(即信源的熵)可表示为H(X)=E[I(x)]= 。
3、在离散联合概率空间[XY,P(xy)] 上随机变量I(xy) 的数学期望H(XY)= ,若集合X与集合Y相互独立,则H(XY)= 。
4、若给定离散联合概率空间[XY,P(xy)],则x与y之间的互信息量I(x;y)= ;平均互信息量可用熵和条件熵表示即I(X;Y)= = ,其中条件熵H(X|Y)通常称为熵,条件熵H(Y|X) 称为____________熵;若集合X与集合Y相互独立,则H(X|Y) = ,H(Y|X) = ,平均互信息量I(X;Y)= 。
5、离散信源的冗余度是R表示信源消息的可压缩____________,设信源符号集的最大熵为Ho,实际熵为H∞,则冗余度R可表示为______________;信源编码目的就是通过减少或消除信源____________来提高信息传输效率,因此信源编码亦称__________性编码,而信道编码则称__________性编码。
6、对于连续随机变量,在峰值功率受限于P m的条件下,取得最大相对熵的最佳概率密度函数是一个恒值即W opt(x)=_________,称W(x)为__________分布,这时最大相对熵H cmax=__________。
7、对于平均功率受限,均值不为零的一维连续随机变量的方差为定值时,其取得最大相熵的最佳概率密度函数为正态分布,即Wopt(x)= _________ ,最大相对熵H cmax=__________。
8、假设任一随机变量X与一正态分布随机变量具有相同的相对熵Hc,则其等效正态分布的随机变量X的熵功率为P=;可以用信号平均功率和熵功率的相对差值_________来表示连续信源的冗余度。