信息论与编码复习总结
- 格式:pdf
- 大小:2.29 MB
- 文档页数:28
“信息论与编码”总复习1.消息、信号、信息的含义、定义及区别。
信息是指各个事物运动的状态及状态变化的方式。
消息是指包含信息的语言,文字和图像等。
信号是消息的物理体现。
消息是信息的数学载体、信号是信息的物理载体信号:具体的、物理的消息:具体的、非物理的信息:非具体的、非物理的同一信息,可以采用不同形式的物理量来载荷,也可以采用不同的数学描述方式。
同样,同一类型信号或消息也可以代表不同内容的信息2.信息的特征与分类。
1接收者在收到信息之前,对其内容是未知的,所以信息是新知识,新内容;2信息是能使认识主体对某一事物的未知性或不确定性减少的有用知识;3信息可以产生,也可以消失,同时信息可以被携带,被存储及处理;4信息是可以量度的,信息量有多少的差别。
3.狭义信息论、广义信息论、一般信息论研究的领域。
狭义信息论:信息论是在信息可以量度的基础上,对如何有效,可靠地传递信息进行研究的科学。
它涉及信息量度,信息特性,信息传输速率,信道容量,干扰对信息传输的影响等方面的知识。
广义信息论:信息是物质的普遍属性,所谓物质系统的信息是指它所属的物理系统在同一切其他物质系统全面相互作用(或联系)过程中,以质、能和波动的形式所呈现的结构、状态和历史。
包含通信的全部统计问题的研究,除了香农信息论之外,还包括信号设计,噪声理论,信号的检测与估值等。
概率信息:信息表征信源的不定度,但它不等同于不定度,而是为了消除一定的不定度必须获得与此不定度相等的信息量4.信息论的起源、历史与发展。
⏹1924年,Nyquist提出信息传输理论;⏹1928年,Hartly提出信息量关系;⏹1932年,Morse发明电报编码;⏹1946年,柯切尼柯夫提出信号检测理论;⏹1948年,Shannon提出信息论,“通信中的数学理论”—现代信息论的开创性的权威论文,为信息论的创立作出了独特的贡献。
5.通信系统的物理模型(主要框图),各单元(方框)的主要功能及要解决的主要问题。
信息论与编码知识点总结信息论与编码随着计算机技术的发展,人类对信息的传输、存储、处理、交换和检索等的研究已经形成一门独立的学科,这门学科叫做信息论与编码。
我们来看一下信息论与编码知识点总结。
二、决定编码方式的三个主要因素1。
信源—信息的源头。
对于任何信息而言,它所包含的信息都是由原始信号的某些特征决定的。
2。
信道—信息的载体。
不同的信息必须有不同的载体。
3。
编码—信息的传递。
为了便于信息在信道中的传输和解码,就需要对信息进行编码。
三、信源编码(上) 1。
模拟信号编码这种编码方式是将信息序列变换为电信号序列的过程,它能以较小的代价完成信息传送的功能。
如录音机,就是一种典型的模拟信号编码。
2。
数字信号编码由0和1表示的数字信号叫做数字信号。
在现实生活中,数字信号处处可见,像电话号码、门牌号码、邮政编码等都是数字信号。
例如电话号码,如果它用“ 11111”作为开头,那么这串数字就叫做“ 11”位的二进制数字信号。
数字信号的基本元素是0和1,它们组成二进制数,其中每一个数码都是由两个或更多的比特构成的。
例如电话号码就是十一位的二进制数。
我们平常使用的编码方法有: A、首部-----表明发送者的一些特征,如发送者的单位、地址、性别、职务等等B、信源-----表明信息要发送的内容C、信道-----信息要通过的媒介D、信宿-----最后表明接受者的一些特征E、加密码----对信息进行加密保护F、均匀量化----对信息进行量化G、单边带----信号只在一边带宽被传输H、调制----将信息调制到信号载波的某一特定频率上I、检错----信息流中若发生差错,则输出重发请求消息,比如表达公式时,可写成“ H=k+m-p+x”其中H=“ X+m-P-k”+“ y+z-p-x”+“ 0-w-k-x”,这样通过不断积累,就会发现:用无限长字符可以表达任意长度的字符串;用不可再分割的字符串表达字符串,且各字符之间没有空格等等,这些都表明用无限长字符串表达字符串具有很大的优越性,它的许多优点是有限长字符串不能取代的。
第1章 概论1. 信号(适合信道传输的物理量)、信息(抽象的意识/知识,是系统传输、转换、处理的对象)和消息(信息的载体)定义;相互关系:(1信号携带消息,是消息的运载工具(2信号携带信息但不是信息本身(3同一信息可用不同的信号来表示(4同一信号也可表示不同的信息。
2. 通信的系统模型及目的:提高信息系统可靠性、有效性和安全性,以达到系统最优化.第2章 信源及信息量1. 单符号离散信源数学模型2. 自信息量定义:一随机事件发生某一结果时带来的信息量I(xi)=- log2P(xi)、单位:bit 、物理意义:确定事件信息量为0;0概率事件发生信息量巨大、性质:I(xi)非负;P(xi)=1时I(xi)=0;P(xi)=0时I(xi)无穷;I(xi)单调递减;I(xi)是随机变量。
3. 联合自信息量:I(xiyi)=- log2P(xiyj) 物理意义:两独立事件同时发生的信息量=各自发生的信息量的和、条件自信息量:I(xi/yi)=- log2P(xi/yj);物理意义:特定条件下(yj 已定)随机事件xi 所带来的信息量。
三者关系:I(xi/yi)= I(xi)+ I(yi/xi)= I(yi)+ I(xi/yi)4. 熵:定义(信源中离散消息自信息量的数学期望)、单位(比特/符号)、物理意义(输出消息后每个离散消息提供的平均信息量;输出消息前信源的平均不确定度;变量的随机性)、计算:(H(X)=-∑P(xi)log2 P(xi)) 1)连续熵和离散的区别:离散熵是非负的2)离散信源当且仅当各消息P 相等时信息熵最大H (X )=log 2 n 。
3)连续信源的最大熵:定义域内的极值.5.条件熵H(Y/X) = -∑∑P(xiyj) log2P(yj/xi),H (X /Y )= -∑∑P(xiyj) log2P(xi/yj) 、物理意义:信道疑义度H(X/Y):信宿收到Y 后,信源X 仍存在的不确定度,有噪信道传输引起信息量的损失,也称损失熵。
信息论与编码1.根据信息论的各种编码定理和通信系统指标,编码问题可分解为几类,分别是什么?答:3类,分别是:信源编码,信道编码,和加密编码。
2.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。
答:通信系统模型如下:数据处理定理为:串联信道的输入输出X 、Y 、Z 组成一个马尔可夫链,且有,。
说明经数据处理后,一般只会增加信息的损失。
3.什么是平均自信息量与平均互信息,比较一下这两个概念的异同?答:平均自信息为:表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。
平均互信息:表示从Y 获得的关于每个X 的平均信息量,也表示发X 前后Y 的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。
4.简述最大离散熵定理。
对于一个有m 个符号的离散信源,其最大熵是多少?答:最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。
最大熵值为。
5.熵的性质什么?答:非负性,对称性,确定性,香农辅助定理,最大熵定理。
6.解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系?答:信息传输率R 指信道中平均每个符号所能传送的信息量。
信道容量是一个信道所能达到的最大信息传输率。
信息传输率达到信道容量时所对应的输入概率分布称为最佳输入概率分布。
平均互信息是信源概率分布的∩型凸函数,是信道传递概率的U 型凸函数。
7.信道疑义度的概念和物理含义?答:概念:)|(log )()|(j i j i jib a p b a p Y XH ∑∑-=物理含义:输出端收到全部输出符号Y 以后,对输入X 尚存在的平均不确定程度。
8.写出香农公式,并说明其物理意义。
当信道带宽为5000Hz ,信噪比为30dB 时求信道容量。
答:香农公式为 ,它是高斯加性白噪声信道在单位时 间内的信道容量,其值取决于信噪比和带宽。
由得,则9.解释无失真变长信源编码定理?答:只要,当N 足够长时,一定存在一种无失真编码。
第一章绪论第二章信源与信息熵离散信源的信息量自信息量条件自信息量联合自信息量单符号离散信源熵熵的性质1.非负性2.对称性3.确定性4.扩展性5.连续性二元联合信源的共熵与条件熵二元联合信源的共熵二元联合信源的条件熵独立熵、联合熵与条件熵的关系独立熵、联合熵与条件熵的物理意义离散无记忆信源N次扩展信源离散信道的平均交互信息量离散信道三种描述方法1.概率空间描述2.转移矩阵描述3.图示法描述离散信道的互信息量互信息量性质1.互易性-对称性2.3.互信息量可正可负4.任何两个事件之间的互信息不可能大于其中任何一个事件的自信息量5.离散信道的平均互信息量平均互信息量与联合熵、独立熵的关系一般关系X 和Y 相互独立时X 和Y 一一对应时数据处理定理信息不增性连续信源的熵连续信源均匀分布:高斯分布:指数分布:连续信源的最大熵定理输出峰值受限时的最大熵(瞬时功率受限/幅度受限):当概率密度分布为均匀分布时,信源具有最大熵输出平均功率受限时的最大熵:当其概率密度函数为高斯分布时,具有最大熵均值受限时的最大熵:其输出信号幅度呈指数分布时连续信源X 具有最大熵值信源的剩余度/多余度/冗余度离散信源的剩余度/多余度/冗余度:连续信源的剩余度/多余度/:第三章信道容量离散无噪声信道的熵速率和信道容量熵速率:信道容量:几种离散无噪声信道举例:1、具有一一对应关系的无噪信道2、具有扩展性能的无噪信道3、具有归并性能的无噪信道离散有噪声信道的熵速率和信道容量接收熵速率:信道容量:连续信道中的熵速率与信道容量连续无噪声信道的熵速率和信道容量熵速率信道容量连续有噪声信道熵速率信道容量第四章信源编码编码的定义1、二元码/多元码2、同价码3、等长码4、变长码5、非奇异码/非奇异码6、单义码(单义码)7、非续长码(瞬时可译码/即时码)/续长码(非瞬时可译码/非即时码)单义码存在定理(克劳夫特Kraft 不等式)码树图平均码字长度编码定理定长编码定理:变长编码定理:离散无记忆平稳信道的编码定理(香农第二定理):最佳变长编码一、香农编码二、范诺(费诺)编码(1) 把原始信源的符号按概率从大到小重新排列。
1、通信系统模型的组成,及各部分的功能。
答:信源,产生消息的源,消息可以是文字,语言,图像。
可以离散,可以连续。
随机发生。
编码器,信源编码器:对信源输出进行变换(消去冗余,压缩),提高信息传输的有效性。
信道编码器:对信源编码输出变换(加入冗余),提高抗干扰能力,提高信息传输的可靠性。
调制器:将信道编码输出变成适合信道传输的方式信道,信号从发端传到收端的介质干扰源,系统各部分引入的干扰,包括衰落,多径,码间干扰,非线性失真,加性噪声译码器,编码器的逆变换信宿,信息的接收者2、消息,信号,信息三者之间的关系答:关系:信息---可以认为是具体的物理信号、数学描述的消息的内涵,即信号具体载荷的内容、消息描述的含义。
信号---则是抽象信息在物理层表达的外延;消息---则是抽象信息在数学层表达的外延。
3、信源的分类答:分类:单消息(符号)信源:离散信源;连续变量信源。
平稳信源。
无/有记忆信源。
马尔可夫信源。
随机波形信源。
离散信源:信源可能输出的消息数是有限的或可数的,而且每次只输出其中一个消息。
可以用一维离散型随机变量X来描述这个信源输出的消息。
这个随机变量X的样本空间就是符号集A;而X的概率分布就是各消息出现的先验概率,信源的概率空间必定是一个完备集。
连续变量信源:数据取值是连续的,但又是随机的。
可用一维的连续型随机变量X来描述这些消息。
这种信源称为连续信源,其数学模型是连续型的概率空间:4、自信息的含义:当事件ai发生以前,表示事件ai发生的不确定性,当事件ai发生以后表示事件ai所含有(所提供)的信息量。
5、互信息含义:信源发送消息ai,而由于干扰,在接收端收到的为消息bj ,此时获得的信息量——互信息,即最初的不确定性减去尚存在的不确定性。
6、离散单符号信源熵的物理含义:熵是随机变量的随机性的描述。
熵是信源输出消息前随机变量平均不确定性的描述。
信源熵H(X)是表示信源输出后每个消息/符号所提供的平均信息量。
信息论与编码1. 通信系统模型信源—信源编码—加密—信道编码—信道—信道解码—解密—信源解码—信宿 | | |(加密密钥) 干扰源、窃听者 (解密秘钥)信源:向通信系统提供消息的人或机器信宿:接受消息的人或机器信道:传递消息的通道,也是传送物理信号的设施干扰源:整个系统中各个干扰的集中反映,表示消息在信道中传输受干扰情况 信源编码:编码器:把信源发出的消息变换成代码组,同时压缩信源的冗余度,提高通信的有效性 (代码组 = 基带信号;无失真用于离散信源,限失真用于连续信源)译码器:把信道译码器输出的代码组变换成信宿所需要的消息形式基本途径:一是使各个符号尽可能互相独立,即解除相关性;二是使各个符号出现的概率尽可能相等,即概率均匀化信道编码:编码器:在信源编码器输出的代码组上增加监督码元,使之具有纠错或检错的能力,提高通信的可靠性译码器:将落在纠检错范围内的错传码元检出或纠正基本途径:增大码率或频带,即增大所需的信道容量2. 自信息:()log ()X i i I x P x =-,或()log ()I x P x =-表示随机事件的不确定度,或随机事件发生后给予观察者的信息量。
条件自信息://(/)log (/)X Y i j X Y i j I x y P x y =-联合自信息:(,)log ()XY i j XY i j I x y P x y =-3. 互信息:;(/)()(;)log log ()()()i j i j X Y i j i i j P x y P x y I x y P x P x P y ==信源的先验概率与信宿收到符号消息后计算信源各消息的后验概率的比值,表示由事件y 发生所得到的关于事件x 的信息量。
4. 信息熵:()()log ()i iiH X p x p x =-∑ 表示信源的平均不确定度,或信源输出的每个信源符号提供的平均信息量,或解除信源不确定度所需的信息量。
信息论与编码总结1.关于率失真函数的几点总结原理(需要解决什么问题?或者是受什么的启发,能达到什么目的)。
与无失真信源编码相比,限失真信源编码的原理是什么?我们知道无失真信源编码是要求使信源的所发送的信息量完全无损的传输到信宿,我们常见的编码方式有哈夫曼编码、费诺编码和香农编码。
他们的中心思想是使序列的中0和1出现的概率相等。
也就是说长的码字对应的信源符号出现的概率较小,而短的码字对应的信源符号出现的概率较大,这样就能实现等概。
若编码能实现完全的等概,则就能达到无失真的传输。
此时传输的信息量是最大的,和信源的信息量相等,此时传输的信息速率达到信道容量的值。
(其实这是编码的思想,与之对应的为限失真编码的思想。
香农本人并没有提出明确的编码方法,但是给出指导意义)与无失真的信道相比,如信道存在一定的损耗,即表明有传递概率。
此时我们换一个角度。
我们使信源概率分布固定不变,因为平均交互信息量I(X;Y)是信道传递概率P(Y/X)的下凸函数,因此我们设想一种信道,该信道的传递概率P(Y/X)能使平均交互信息达到最小。
注意,此时的传递概率P(Y/X)就相当于“允许一定的失真度”,此时我们能这样理解:即在允许的失真度的条件下,能使平均交互信息量达到最小,就表明我们传输的信息可以达到最小,原来的信息量还是那么大。
现在只需传输较小信息,表明压缩的空间是非常大的。
无失真压缩和限失真压缩其实是数学上的对偶问题。
即无失真压缩是由平均相互信息量的上凸性,调整信源概率分布,使传输的信息量达到最大值C,这个值就是信道容量。
(信道容量是不随信源概率分布而改变的,是一种客观存在的东西,我们只是借助信源来描述这个物理量,事实上也肯定存在另外一种描述方式。
)限失真压缩则是相反,他考虑的是信源概率分布固定不变,是调节信道转移概率的大小,使平均交互信息量达到最小。
此时信道容量还是相同,只是我们要传输的信息量变小了,(时效性)有效性得到提高。
1第1章 概论1. 信号(适合信道传输的物理量)、信息(抽象的意识/知识,是系统传输、转换、处理的对象)和消息(信息的载体)定义;相互关系:(1信号携带消息,是消息的运载工具(2信号携带信息但不是信息本身(3同一信息可用不同的信号来表示(4同一信号也可表示不同的信息。
2. 通信的系统模型及目的:提高信息系统可靠性、有效性和安全性,以达到系统最优化.第2章 信源及信息量1. 单符号离散信源数学模型2. 自信息量定义:一随机事件发生某一结果时带来的信息量I(xi)=-log2P(xi)、单位:bit 、物理意义:确定事件信息量为0;0概率事件发生信息量巨大、性质:I(xi)非负;P(xi)=1时I(xi)=0;P(xi)=0时I(xi)无穷;I(xi)单调递减;I(xi)是随机变量。
3. 联合自信息量:I(xiyi)=- log2P(xiyj) 物理意义:两独立事件同时发生的信息量=各自发生的信息量的和、条件自信息量:I(xi/yi)=- log2P(xi/yj);物理意义:特定条件下(yj 已定)随机事件xi 所带来的信息量。
三者关系:I(xi/yi)= I(xi)+ I(yi/xi)= I(yi)+ I(xi/yi)4. 熵:定义(信源中离散消息自信息量的数学期望)、单位(比特/符号)、物理意义(输出消息后每个离散消息提供的平均信息量;输出消息前信源的平均不确定度;变量的随机性)、计算:(H(X)=-∑P(xi)log2 P(xi)) 1)连续熵和离散的区别:离散熵是非负的2)离散信源当且仅当各消息P相等时信息熵最大H (X )=log 2 n 。
3)连续信源的最大熵:定义域内的极值. 5.条件熵H(Y/X) = -∑∑P(xiyj) log2P(yj/xi),H (X /Y )= -∑∑P(xiyj) log2P(xi/yj) 、物理意义:信道疑义度H(X/Y):信宿收到Y 后,信源X 仍存在的不确定度,有噪信道传输引起信息量的损失,也称损失熵。
信息论与编码第四版总结信息论与编码是信息科学领域的重要课程,旨在研究信息的度量、传输和存储等问题。
第四版教材在前三版的基础上,进一步深化了信息论和编码理论的内容,同时也引入了更多的实际应用案例。
本总结将对该教材的内容进行概括和总结。
一、信息论基础1. 信息的基本概念:教材首先介绍了信息的定义、度量和性质,强调了信息在决策和交流中的重要性。
2. 熵的概念:熵是信息论中的一个基本概念,用于描述随机事件的不确定性。
教材详细介绍了离散和连续熵的概念和计算方法。
3. 信道容量:信道容量是信息传输中的极限性能,用于描述在理想条件下,信道能够传输的最大信息量。
教材介绍了信道容量的计算方法和影响因素。
二、编码理论1. 信源编码:信源编码的目标是减少信息中的冗余,从而减小存储和传输的代价。
教材介绍了各种信源编码方法,如霍夫曼编码、算术编码等。
2. 信道编码:信道编码是为了提高信息传输的可靠性而采取的措施。
教材详细介绍了常见的信道编码方法,如奇偶校验、里德-所罗门码等。
3. 纠错编码:纠错编码是信道编码的一个重要分支,能够实现信息传输的错误检测和纠正。
教材介绍了常见的纠错编码方法,如循环冗余校验、LDPC(低密度奇偶校验)等。
三、实际应用教材通过实际案例,展示了信息论与编码理论在通信、数据压缩、网络安全等领域的应用。
例如,通过分析无线通信中的信道特性,得出信道容量和编码方案的选择;通过数据压缩算法的比较,得出适合特定应用的编码方法;通过网络安全中的错误检测和纠正技术,提高网络通信的可靠性。
四、总结第四版信息论与编码教材在前三版的基础上,进一步深化了信息论和编码理论的内容,引入了更多的实际应用案例。
通过学习该教材,我们可以掌握信息论的基本概念和熵的计算方法,了解信源编码、信道编码和纠错编码的方法和原理,并掌握信息论与编码理论在通信、数据压缩、网络安全等领域的应用。
总之,信息论与编码是一门非常重要的课程,对于理解信息的度量、传输和存储等问题具有重要意义。
By 疯狂阿德第一章绪论考点:●信息、消息、信号的区别●通信系统模型●香农1.信息、消息、信号的区别信息:指事物运动的状态或存在方式的不确定性的描述。
消息:包含信息的语言、文字、图像等。
信号:信息的物理体现。
在通信系统中,实际传输的是信号,但实质内容是信息,信息包含在信号中,信号是信息的载体,通信的结果是消除或部分消除不确定性,从而获得信息。
2.通信系统模型通信系统模型信源:信息输出的源。
分离散信源和模拟信源。
信宿:信息归宿之意,意即收信者或用户,是信息传送的终点或目的地。
信道:传送信息的物理媒介。
密钥源:产生密钥k的源。
信号x经过k的加密运算后,就把明文x变换为密文y。
一般地说,通信系统的性能指标主要是有效性、可靠性、安全性和经济性。
除了经济性外,这些指标正是信息论的研究对象。
信源编码:信源编码器的作用:一、将信源发出的信息变换成基带信号;二、压缩冗余度,提高效率(有效性)。
信道编码:在信源编码器输出的代码组上有目的地增加一些监督码元,使之具有检错和纠错能力。
信道译码器具有检错和纠错能力,它能将在其检错或纠错能力范围内的错传码元检测出来并加以纠正,以提高传输信息的可靠性。
信道编码包括调制解调和纠错检错编译码。
信道中的干扰通常使通信质量下降,对于模拟信号,表现在受到的信号的信噪比下降;对于数字信号就是误码率增大。
信道编码的主要方法是增大码率或频带,即增大所需的信道容量。
这恰与信源编码相反。
3.香农他在1941年至1944年对通信和密码进行深入研究,并用概率论的方法研究通信系统,揭示了通信系统传递的对象就是信息,并对信息给以科学的定量描述,提出了信息熵的概念。
还指出通信系统的中心问题是在噪声下如何有效而可靠地传送信息,而实现这一目标的主要方法是编码等。
这一成果于1948年在《贝尔系统技术杂志》以《通信的数学理论》香农因此成为信息论的奠基人。
简答题:一、信源编码与信道编码的区别答:信源编码是压缩信源发出的信息的冗余度,是为了提高信息传输的有效性;而信道编码是在信源编码器输出的代码组上有目的地增加了一些监督码元,增大了信息的冗余度,以提高传输信息的可靠性。
“信息论与编码”总复习*****************************************************************************简要***************************************************************************** 第二章 信源与信息熵1.每次只发出一个符号代表一个消息的信源叫做发出单个符号的无记忆信源。
2.由一系列符号组成,这种用每次发出1组含2个以上符号序列来代表一个信息的信源叫做发出符号序列的信源。
3.信源发出的序列的统计性质与时间的推移无关,是平稳的随机序列。
4.当信源的记忆长度为m+1时,该时刻发出的符号与前m 个符号有关联性,而与更前面的符号无关,这种有记忆信源叫做m 阶马尔可夫信源。
若上述条件概率与时间起点无关,则信源输出的符号序列可看成齐次马尔可夫链,这样的信源叫做齐次马尔可夫信源。
5.例题:稳态分布概率|稳定后的符号概率分布:符号条件概率矩阵:1/22/33/44/5⎡⎤⎢⎥⎢⎥-⎢⎥⎢⎥⎣⎦j i 1/21/3[p(s |s )]=1/41/5状态转移概率矩阵1/20001/32/33/40004/5⎡⎤⎢⎥⎢⎥---⎢⎥⎢⎥⎣⎦j i 1/20[p(s |s )]=1/41/50令各稳态分布概率为W1,W2,W3,W4:1131124W W W =+ 2131324W W W =+ 3241135W W W =+ 4242435W W W =+ 12341W W W W +++= 得稳态分布的概率:W1=3/35 W2=6/35 W3=6/35 W4=4/7稳定后的符号概率分布:11131616149()(|)()2353354355735i i i p a p a s p s ==⨯+⨯+⨯+⨯=∑ 221326364426()(|)()2353354355735i i ip a p a s p s ==⨯+⨯+⨯+⨯=∑6.定义具有概率为()i p x 的符号i x 的自信息量为:()log ()i i I x p x =-7.自信息量具有下列特性:(1)()1,()0i i p x I x ==(2)()0,()i i p x I x ==∞(3)非负性(4)单调递减性(5)可加性8.信源熵是在平均意义上来表征信源的总体特征,它是信源X 的 函数,一般写成H (X )。
“信息论与编码”复习1.消息、信号、信息的含义、定义及区别。
信息是指各个事物运动的状态及状态变化的方式。
消息是指包含信息的语言,文字和图像等。
信号是消息的物理体现。
消息是信息的数学载体、信号是信息的物理载体信号:具体的、物理的消息:具体的、非物理的信息:非具体的、非物理的同一信息,可以采用不同形式的物理量来载荷,也可以采用不同的数学描述方式。
同样,同一类型信号或消息也可以代表不同内容的信息2.信息的特征与分类。
1接收者在收到信息之前,对其内容是未知的,所以信息是新知识,新内容;2信息是能使认识主体对某一事物的未知性或不确定性减少的有用知识;3信息可以产生,也可以消失,同时信息可以被携带,被存储及处理;4信息是可以量度的,信息量有多少的差别。
3.狭义信息论、广义信息论、一般信息论研究的领域。
狭义信息论:信息论是在信息可以量度的基础上,对如何有效,可靠地传递信息进行研究的科学。
它涉及信息量度,信息特性,信息传输速率,信道容量,干扰对信息传输的影响等方面的知识。
广义信息论:信息是物质的普遍属性,所谓物质系统的信息是指它所属的物理系统在同一切其他物质系统全面相互作用(或联系)过程中,以质、能和波动的形式所呈现的结构、状态和历史。
包含通信的全部统计问题的研究,除了香农信息论之外,还包括信号设计,噪声理论,信号的检测与估值等。
概率信息:信息表征信源的不定度,但它不等同于不定度,而是为了消除一定的不定度必须获得与此不定度相等的信息量4.信息论的起源、历史与发展。
⏹1924年,Nyquist提出信息传输理论;⏹1928年,Hartly提出信息量关系;⏹1932年,Morse发明电报编码;⏹1946年,柯切尼柯夫提出信号检测理论;⏹1948年,Shannon提出信息论,“通信中的数学理论”—现代信息论的开创性的权威论文,为信息论的创立作出了独特的贡献。
5.通信系统的物理模型(主要框图),各单元(方框)的主要功能及要解决的主要问题。
信息论与编码复习总结题型:填空、解答、计算1、编码:无失真与限失真信源编码定理编码分为信源编码和信道编码,其中信源编码又分为无失真和限失真三大定理:无失真信源编码定理(第一极限定理)(可逆)信道编码定理(第二极限定理)限失真信源编码定理(第三极限定理)(不可逆)Shannon(香农)信息论:在噪声环境下,可靠地、安全地、有效地传送信息理论。
通信系统模型方框图:信道的种类很多,如电信中常用的架空明线、同轴电缆、波导、光纤、传输电磁波的空间等都是信道。
也可以从信道的性质或其传送的信号情况来分类,例如:无干扰信道和有干扰信道、恒参信道和变参信道、离散信道(Discrete Channel)和连续信道(Continuous Channel)、单用户信道和多用户信道等。
信源的描述:通过概率空间描述平稳包含齐次,而齐次不包含平稳(重要,第二章计算题)定义:若齐次马尔可夫链对一切i,j存在不依赖于i的极限,则称其具有遍历性,称为平稳分布(如下)pj设有一齐次马尔可夫链,其状态转移矩阵为P,其稳态分布为w j=p(s j)自信息量的特性:p(x i)=1,I(x i)=0; p(x i)=0,I(x i)=∞; 非负性;单调递减性;可加性;定义:联合概率空间中任一联合事件的联合(自)信息量为:定义:对于给定离散概率空间表示的信源,在出现y事件后所提供有关事件x的信息量定义互信息,单位为比特信道模型:二进制离散信道BSC;离散无记忆信道DMC;波形信道信源编码器的目的:是使编码后所需的信息传输率R尽量小。
信源编码:主要任务就是减少冗余,提高编码效率。
唯一可译码:(任意有限长的码元序列,只能被唯一地分割成一个个的码字,便称为唯一可译码){0,10,11}为唯一可译码,任意有限长码序列:100111000。
(分类)即时码和非即时码变长编码定理:(解答,重要) ???1、平均码长:2、根据信源各个符号的统计特性,如概率大的符号用短码,概率小的用较长的码,使得编码后平均码长降低,从而提高编码效率。