信息论与编码复习重点整理(1页版)
- 格式:docx
- 大小:178.02 KB
- 文档页数:3
信息论与编码知识点总结信息论与编码随着计算机技术的发展,人类对信息的传输、存储、处理、交换和检索等的研究已经形成一门独立的学科,这门学科叫做信息论与编码。
我们来看一下信息论与编码知识点总结。
二、决定编码方式的三个主要因素1。
信源—信息的源头。
对于任何信息而言,它所包含的信息都是由原始信号的某些特征决定的。
2。
信道—信息的载体。
不同的信息必须有不同的载体。
3。
编码—信息的传递。
为了便于信息在信道中的传输和解码,就需要对信息进行编码。
三、信源编码(上) 1。
模拟信号编码这种编码方式是将信息序列变换为电信号序列的过程,它能以较小的代价完成信息传送的功能。
如录音机,就是一种典型的模拟信号编码。
2。
数字信号编码由0和1表示的数字信号叫做数字信号。
在现实生活中,数字信号处处可见,像电话号码、门牌号码、邮政编码等都是数字信号。
例如电话号码,如果它用“ 11111”作为开头,那么这串数字就叫做“ 11”位的二进制数字信号。
数字信号的基本元素是0和1,它们组成二进制数,其中每一个数码都是由两个或更多的比特构成的。
例如电话号码就是十一位的二进制数。
我们平常使用的编码方法有: A、首部-----表明发送者的一些特征,如发送者的单位、地址、性别、职务等等B、信源-----表明信息要发送的内容C、信道-----信息要通过的媒介D、信宿-----最后表明接受者的一些特征E、加密码----对信息进行加密保护F、均匀量化----对信息进行量化G、单边带----信号只在一边带宽被传输H、调制----将信息调制到信号载波的某一特定频率上I、检错----信息流中若发生差错,则输出重发请求消息,比如表达公式时,可写成“ H=k+m-p+x”其中H=“ X+m-P-k”+“ y+z-p-x”+“ 0-w-k-x”,这样通过不断积累,就会发现:用无限长字符可以表达任意长度的字符串;用不可再分割的字符串表达字符串,且各字符之间没有空格等等,这些都表明用无限长字符串表达字符串具有很大的优越性,它的许多优点是有限长字符串不能取代的。
信息论与编码1.根据信息论的各种编码定理和通信系统指标,编码问题可分解为几类,分别是什么?答:3类,分别是:信源编码,信道编码,和加密编码。
2.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。
答:通信系统模型如下:数据处理定理为:串联信道的输入输出X 、Y 、Z 组成一个马尔可夫链,且有,。
说明经数据处理后,一般只会增加信息的损失。
3.什么是平均自信息量与平均互信息,比较一下这两个概念的异同?答:平均自信息为:表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。
平均互信息:表示从Y 获得的关于每个X 的平均信息量,也表示发X 前后Y 的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。
4.简述最大离散熵定理。
对于一个有m 个符号的离散信源,其最大熵是多少?答:最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。
最大熵值为。
5.熵的性质什么?答:非负性,对称性,确定性,香农辅助定理,最大熵定理。
6.解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系?答:信息传输率R 指信道中平均每个符号所能传送的信息量。
信道容量是一个信道所能达到的最大信息传输率。
信息传输率达到信道容量时所对应的输入概率分布称为最佳输入概率分布。
平均互信息是信源概率分布的∩型凸函数,是信道传递概率的U 型凸函数。
7.信道疑义度的概念和物理含义?答:概念:)|(log )()|(j i j i jib a p b a p Y XH ∑∑-=物理含义:输出端收到全部输出符号Y 以后,对输入X 尚存在的平均不确定程度。
8.写出香农公式,并说明其物理意义。
当信道带宽为5000Hz ,信噪比为30dB 时求信道容量。
答:香农公式为 ,它是高斯加性白噪声信道在单位时 间内的信道容量,其值取决于信噪比和带宽。
由得,则9.解释无失真变长信源编码定理?答:只要,当N 足够长时,一定存在一种无失真编码。
1、通信系统模型的组成,及各部分的功能。
答:信源,产生消息的源,消息可以是文字,语言,图像。
可以离散,可以连续。
随机发生。
编码器,信源编码器:对信源输出进行变换(消去冗余,压缩),提高信息传输的有效性。
信道编码器:对信源编码输出变换(加入冗余),提高抗干扰能力,提高信息传输的可靠性。
调制器:将信道编码输出变成适合信道传输的方式信道,信号从发端传到收端的介质干扰源,系统各部分引入的干扰,包括衰落,多径,码间干扰,非线性失真,加性噪声译码器,编码器的逆变换信宿,信息的接收者2、消息,信号,信息三者之间的关系答:关系:信息---可以认为是具体的物理信号、数学描述的消息的内涵,即信号具体载荷的内容、消息描述的含义。
信号---则是抽象信息在物理层表达的外延;消息---则是抽象信息在数学层表达的外延。
3、信源的分类答:分类:单消息(符号)信源:离散信源;连续变量信源。
平稳信源。
无/有记忆信源。
马尔可夫信源。
随机波形信源。
离散信源:信源可能输出的消息数是有限的或可数的,而且每次只输出其中一个消息。
可以用一维离散型随机变量X来描述这个信源输出的消息。
这个随机变量X的样本空间就是符号集A;而X的概率分布就是各消息出现的先验概率,信源的概率空间必定是一个完备集。
连续变量信源:数据取值是连续的,但又是随机的。
可用一维的连续型随机变量X来描述这些消息。
这种信源称为连续信源,其数学模型是连续型的概率空间:4、自信息的含义:当事件ai发生以前,表示事件ai发生的不确定性,当事件ai发生以后表示事件ai所含有(所提供)的信息量。
5、互信息含义:信源发送消息ai,而由于干扰,在接收端收到的为消息bj ,此时获得的信息量——互信息,即最初的不确定性减去尚存在的不确定性。
6、离散单符号信源熵的物理含义:熵是随机变量的随机性的描述。
熵是信源输出消息前随机变量平均不确定性的描述。
信源熵H(X)是表示信源输出后每个消息/符号所提供的平均信息量。
信息论是在信息可以度量的基础上,对如何有效、可靠地传递信息进行讲究的科学,它设计信息度量、信息特性、信息传输率、信道容量、干扰对信息传输的影响等方面的知识。
信息是各种事物运动的状态状态变化方式。
信息是抽象的意识,它是看不见摸不到的。
消息是具体的,它载荷信息,但他不是物理性的。
信号是消息的物理体现。
信号是信息的载体在通信系统中,传送的本质内容是信息,发送端需将信息表示称具体的消息,再将消息载至信号上,才能在实际的信号系统中传输。
一般来说,通信系统的性能指标主要是有效性、可靠性、安全性、经济性。
符号的不确定度在数量上等于它的自信息量,两者的单位相同,但含义却不相同。
不确定度是信号源符号固有的,不管符号是否发出,而自信息量是信源符号发出后给予收信者的。
为了消除该符号的不确定度,接受者需要获得信息量。
冗余度来自两个方面:一是信源符号的相关性,相关程度越大,则信源的实际熵越小,越趋于极限熵H∞(X);反之,相关程度越小,信源实际熵就增大。
二是信源符号分布的不均匀性,当等概率分布时,信源熵最大。
根据信道中所受噪声种类的不同,可分为随机差错信道和突发差信道。
在随机差错信道中,噪声随机独立地影响每个传输码元,如以高斯白噪声为主体的信道;另一类噪声干扰的影响则是前后相关的,错误成串出现,这样的信道称为突发差错信道。
信道中平均每个符号所能传送的信息量定义为信道的信息传输率R ,即R=I(X;Y)=H(X)—H(X/Y)bit/符号。
信道容量C=max I (X;Y) ,max下面有p( ai )信源发出的消息一般要通过信道来传输,因此要求信源的传输与信道的输入匹配。
(1)符号匹配:信源输入的符号必须是信道能够传送的符号,即要求信源符号集就是信号的入口符号集或入口符号集的子集,这是实现信息传输的必要条件,可在信源与信道之间加入编码器予以实现,也可以在信源压缩编码时一步完成。
(2)信息匹配:对于某一信道,只有当输入符号的概率分布p(x)满足以定条件时才能达到其信道容量C,也就是说只有特定的信源才能使某一信道的信息传输率到达最大。
1第1章 概论1. 信号(适合信道传输的物理量)、信息(抽象的意识/知识,是系统传输、转换、处理的对象)和消息(信息的载体)定义;相互关系:(1信号携带消息,是消息的运载工具(2信号携带信息但不是信息本身(3同一信息可用不同的信号来表示(4同一信号也可表示不同的信息。
2. 通信的系统模型及目的:提高信息系统可靠性、有效性和安全性,以达到系统最优化.第2章 信源及信息量1. 单符号离散信源数学模型2. 自信息量定义:一随机事件发生某一结果时带来的信息量I(xi)=-log2P(xi)、单位:bit 、物理意义:确定事件信息量为0;0概率事件发生信息量巨大、性质:I(xi)非负;P(xi)=1时I(xi)=0;P(xi)=0时I(xi)无穷;I(xi)单调递减;I(xi)是随机变量。
3. 联合自信息量:I(xiyi)=- log2P(xiyj) 物理意义:两独立事件同时发生的信息量=各自发生的信息量的和、条件自信息量:I(xi/yi)=- log2P(xi/yj);物理意义:特定条件下(yj 已定)随机事件xi 所带来的信息量。
三者关系:I(xi/yi)= I(xi)+ I(yi/xi)= I(yi)+ I(xi/yi)4. 熵:定义(信源中离散消息自信息量的数学期望)、单位(比特/符号)、物理意义(输出消息后每个离散消息提供的平均信息量;输出消息前信源的平均不确定度;变量的随机性)、计算:(H(X)=-∑P(xi)log2 P(xi)) 1)连续熵和离散的区别:离散熵是非负的2)离散信源当且仅当各消息P相等时信息熵最大H (X )=log 2 n 。
3)连续信源的最大熵:定义域内的极值. 5.条件熵H(Y/X) = -∑∑P(xiyj) log2P(yj/xi),H (X /Y )= -∑∑P(xiyj) log2P(xi/yj) 、物理意义:信道疑义度H(X/Y):信宿收到Y 后,信源X 仍存在的不确定度,有噪信道传输引起信息量的损失,也称损失熵。
信息论与编码复习总结题型:填空、解答、计算1、编码:无失真与限失真信源编码定理编码分为信源编码和信道编码,其中信源编码又分为无失真和限失真三大定理:无失真信源编码定理(第一极限定理)(可逆)信道编码定理(第二极限定理)限失真信源编码定理(第三极限定理)(不可逆)Shannon(香农)信息论:在噪声环境下,可靠地、安全地、有效地传送信息理论。
通信系统模型方框图:信道的种类很多,如电信中常用的架空明线、同轴电缆、波导、光纤、传输电磁波的空间等都是信道。
也可以从信道的性质或其传送的信号情况来分类,例如:无干扰信道和有干扰信道、恒参信道和变参信道、离散信道(Discrete Channel)和连续信道(Continuous Channel)、单用户信道和多用户信道等。
信源的描述:通过概率空间描述平稳包含齐次,而齐次不包含平稳(重要,第二章计算题)定义:若齐次马尔可夫链对一切i,j存在不依赖于i的极限,则称其具有遍历性,p j称为平稳分布(如下)设有一齐次马尔可夫链,其状态转移矩阵为P,其稳态分布为w j=p(s j)自信息量的特性:p(x i)=1,I(x i)=0; p(x i)=0,I(x i)=∞;非负性;单调递减性;可加性;定义:联合概率空间中任一联合事件的联合(自)信息量为:定义:对于给定离散概率空间表示的信源,在出现y事件后所提供有关事件x的信息量定义互信息,单位为比特信道模型:二进制离散信道BSC;离散无记忆信道DMC;波形信道信源编码器的目的:是使编码后所需的信息传输率R尽量小。
信源编码:主要任务就是减少冗余,提高编码效率。
唯一可译码:(任意有限长的码元序列,只能被唯一地分割成一个个的码字,便称为唯一可译码){0,10,11}为唯一可译码,任意有限长码序列:100111000。
(分类)即时码和非即时码变长编码定理:(解答,重要)???1、平均码长:2、根据信源各个符号的统计特性,如概率大的符号用短码,概率小的用较长的码,使得编码后平均码长降低,从而提高编码效率。
By 疯狂阿德第一章绪论考点:●信息、消息、信号的区别●通信系统模型●香农1.信息、消息、信号的区别信息:指事物运动的状态或存在方式的不确定性的描述。
消息:包含信息的语言、文字、图像等。
信号:信息的物理体现。
在通信系统中,实际传输的是信号,但实质内容是信息,信息包含在信号中,信号是信息的载体,通信的结果是消除或部分消除不确定性,从而获得信息。
2.通信系统模型通信系统模型信源:信息输出的源。
分离散信源和模拟信源。
信宿:信息归宿之意,意即收信者或用户,是信息传送的终点或目的地。
信道:传送信息的物理媒介。
密钥源:产生密钥k的源。
信号x经过k的加密运算后,就把明文x变换为密文y。
一般地说,通信系统的性能指标主要是有效性、可靠性、安全性和经济性。
除了经济性外,这些指标正是信息论的研究对象。
信源编码:信源编码器的作用:一、将信源发出的信息变换成基带信号;二、压缩冗余度,提高效率(有效性)。
信道编码:在信源编码器输出的代码组上有目的地增加一些监督码元,使之具有检错和纠错能力。
信道译码器具有检错和纠错能力,它能将在其检错或纠错能力范围内的错传码元检测出来并加以纠正,以提高传输信息的可靠性。
信道编码包括调制解调和纠错检错编译码。
信道中的干扰通常使通信质量下降,对于模拟信号,表现在受到的信号的信噪比下降;对于数字信号就是误码率增大。
信道编码的主要方法是增大码率或频带,即增大所需的信道容量。
这恰与信源编码相反。
3.香农他在1941年至1944年对通信和密码进行深入研究,并用概率论的方法研究通信系统,揭示了通信系统传递的对象就是信息,并对信息给以科学的定量描述,提出了信息熵的概念。
还指出通信系统的中心问题是在噪声下如何有效而可靠地传送信息,而实现这一目标的主要方法是编码等。
这一成果于1948年在《贝尔系统技术杂志》以《通信的数学理论》香农因此成为信息论的奠基人。
简答题:一、信源编码与信道编码的区别答:信源编码是压缩信源发出的信息的冗余度,是为了提高信息传输的有效性;而信道编码是在信源编码器输出的代码组上有目的地增加了一些监督码元,增大了信息的冗余度,以提高传输信息的可靠性。
第1章 概论1. 信号(适合信道传输的物理量)、信息(抽象的意识/知识,是系统传输、转换、处理的对象)和消息(信息的载体)定义;相互关系:(1信号携带消息,是消息的运载工具(2信号携带信息但不是信息本身(3同一信息可用不同的信号来表示(4同一信号也可表示不同的信息。
2. 通信的系统模型及目的:提高信息系统可靠性、有效性和安全性,以达到系统最优化.
第2章 信源及信息量1. 单符号离散信源数学模型
2. 自信息量定义:一随机事件发生某一结果时带来的信息量I(xi)=- log2P(xi)、单位:bit 、物理意义:确定事件信息量为0;0概率事件发生信息量巨大、性质:I(xi)非负;P(xi)=1时I(xi)=0;P(xi)=0时I(xi)无穷;I(xi)单调递减;I(xi)是随机变量。
3. 联合自信息量:I(xiyi)=- log2P(xiyj) 物理意义:两独立事件同时发生的信息量=各自发生的信息量的和、条件自信息量:I(xi/yi)=- log2P(xi/yj);物理意义:特定条件下(yj 已定)随机事件xi 所带来的信息量。
三者关系:I(xi/yi)= I(xi)+ I(yi/xi)= I(yi)+ I(xi/yi)
4. 熵:定义(信源中离散消息自信息量的数学期望)、单位(比特/符号)、物理意义(输出消息后每个离散消息提供的平均信息量;输出消息前信源的平均不确定度;变量的随机性)、计算:(H(X)=-∑P(xi)log2 P(xi)) 1)连续熵和离散的区别:离散熵是非负的2)离散信源当且仅当各消息P 相等时信息熵最大H (X )=log 2 n 。
3)连续信源的最大熵:定义域内的极值.
5.条件熵H(Y/X) = -∑∑P(xiyj) log2P(yj/xi),H (X /Y )= -∑∑P(xiyj) log2P(xi/yj) 、物理意义:信道疑义度H(X/Y):信宿收到Y 后,信源X 仍存在的不确定度,有噪信道传输引起信息量的损失,也称损失熵。
噪声熵H(Y/X):已知X 对符号集Y 尚存的不确定性,由信道噪声引起。
联合熵H (X,Y ) =-∑∑P(x,y) log2P(x,y) H(X,Y)=H(X)+H(Y/X)
H(X,Y)=H(Y)+H(X/Y)
6. 熵的性质:1)非负性H(X)≥0:因随机变量X 所有取值p 分布满足
0≤p(xi)≤1;当取对数的底大于1时log p(xi)≤0,而-p(xi)logp(xi)≥0,故熵H(X)≥0;只当随机变量是一确知量时熵H(X)=0。
2)对称性:p(xn) 的顺序互换时熵不变。
3) 最大离散熵定理,极值性:各个符号出现概率相等时(p(xi)=1/n)熵最大。
4) 扩展性5) 确定性:信源符号中有一个符号出现概率为1熵就=0。
6) 可加性7) 极值性:任一概率分布p(xi)对其它概率分布p(yi)的自信息取期望时必大于本身的熵:H(X/Y)≤H(X),H(Y/X)≤H(Y) 8) 上凸性H[αP +(1-α)Q]>αH(P)+(1-α)H(Q) 7.
平
均
互
信
息
量
的
定
义
3个公式的物理意义:从
Y 获得的关于X 的平均信息量。
发出X 前后关于Y 的先验不确定度减少的量。
通信前后整个系统不确定度减少量。
单位(bit/sym)。
8. 平均互信息量性质(①对称②非负(互信息可以负)③极值④凸函数⑤数据处理定理)及证明(极值性、凸函数性):1)极值性I (X ;Y )≤H (X ) .2)上下凸性:I (X ;Y )是p (x i )的严格上凸函数,是p (y j /x i )的严格下凸函数.3)数据处理定理:消息结果多级处理后随次数增多输入/出消息平均互信息量趋于变小.
11.无记忆扩展信源:每次发出一组2个以上相互独立符号序列消息的信源。
平稳信源:各维联合P 分布都与t 起点无关的完全平稳信源。
12. 离散无记忆信源X 的N 次扩展信源熵H(X)=H(X N )=N · H(X) 13. 马尔可夫信源:任何t 发出符号的P 只与前已发的m 小于N 个符号有关,与更前的无关。
状态的概念:与当前输出符号有关的前m 个随机变量序列的某个具体消息。
平稳后信源的概率分布:各态历经的马尔可夫
链的极限P 方程为
极限熵:
14. 连续信源的概念:变量和函数取值连续。
最大连续熵定理:离散信源等概率分布时熵最大;对连续信源,无限制就无最大熵,不同限制下信源最大熵不同:峰值功率(幅度)受限,均匀分布的连续信源熵最大:
h (X)=log 2(b ﹣a );平均功率受限,均值为零高斯分布的连续信源熵最大:
;均值受限,指数分布时连续信源熵最大: log2me 。
第3章 信道及其容量1. 信道模型{X P(X/Y) Y }、分类:根据输入出的(时间&取值特性/随机变量数/输入出数/有无干扰/有无记忆/恒参、随参)分类。
2. 信道容量定义(最大的信息传输率)、
单符号离散特殊信道C 计算:
(1) 离散无噪信道的信道容量:①有一一对应关系的无噪信道C=log2n
②有扩展性能的无噪信道C=log2n ③有归并性能的无噪信道C=log2m (2) 强对称离散信道的信道容量: C=log2n+(1-P)log2(1-P)+Plog2P/n-1
n =2时是2进制均匀信道。
(3) 对称离散信道的容量:C=log2m-H(Y/xi)
3. 连续信道,香农公式;Ct=Wlog2(1+Px/Pn)(bit/s): (信噪比/dB ,10log10P=PdB)。
加性高斯白噪声是最基本的噪声与干扰模型,幅度服从高斯分布,功率谱密度是均匀分布。
5.有噪信道编码DL 内容意义:信道容量是一临界值,只要信息传输率不超过这个值,信道就可几乎无失真地把信息传送过去,否则就会失真。
6.信源信道编码DL :H 信源熵<R s 信源编码速率<R c 信道传输速率<C~ 第4章 信息率失真函数1. 失真度(失真函数):连续信源信道,用d(x,y)
≥0
表示。
平均失真度:失真函数的期望
2. 信息率失真函数定义:找到某试验信道P(yi/xi)使信道传输速率I(X;Y)达到的最小
值,单位:比特
/信源符号。
RN(D)=NR(D)(R(D)=0时才无失真,故连续信源不能无失真传输)
3. 信息率失真函数性质:(1)定义域(Dmin, Dmax) Dmax=min(D1...Dm)(2)R (D )是关于D 的下凸函数
(3)单调递减/连续性4. 把 称为保真度准则.
第6章信源编码1.信源编码的目的+途径:目的是提高通信有效性。
常压缩(减少)信源的冗余度,一般方法:压缩每个信源符号的平均bit 数/信源码率,即同样多信息用较少码率传送,使单位时间传送平均信息量增加。
第7章 信道编码的基本概念1. 信道编码概念,检、纠错定义:(1信道
编码是提高通信可靠性为目的的编码(2码序列中信息序列码元与多余码元之间是相关的,根据相关性来检测(发现)和纠正传输中产生的差错就是信道编码的基本思想。
第8章 线性分组码1. 线性分组码概念:通过预定线性运算将长为k 位的信息码组变换成n 重的码字(n>k),由2k 个信息码组所编成的2k 个码字集合,称为线性分组码。
2.监督矩阵: 确定信息元得到监督元规则的一组方程称为监督方程/校验方程,写成矩阵形式就是H 。
3.生成矩阵(系统码形式): 生成信息位在前监督位在后的(n, k)线性码的矩阵G 。
2. 编码:由H/G 将长为k 的信息组变成长为n >k 的码字;伴随式译码: 若伴随式S =0,判没出错,接收字是1个码字;若S ≠0,判为有错。
3. 最小距离的概念/性质/和纠、检错的关系:(1)最小距离&检错能力:d min ≥l +1(2)-&纠错能力:d min ≥2t +1(3)-&检、纠错能力:d min ≥t +l +1 4. 线性分组码的最小汉明距离=该码非0码字的最小重量.
第9章 循环码1. 循环码定义:任意码字i
次循环移位所得仍是一码字的
D D
(n, k)线性分组码。
生成多项式概念:生成了(n, k)线性码的g(x)。
DL1:(n, k)循环码中生成多项式g(x)是唯一(n-k)次码多项式且次数最低
DL2:(n, k)循环码中每个码多项式C(x)都是g(x)的倍式;而每个为g(x)倍式且次数≤n-1的多项式必是一码多项式。
DL3:在(n, k)线性码中,如全部码多项式都是最低次的(n-k)次码多项式的倍式,则此线性码为(n, k)循环码。
DL4:(n, k)循环码的生成多项式g(x)是(x n+1)的因式:x n+1=h(x)·g(x)
Welcome
To Download
!!!
欢迎您的下载,资料仅供参考!。