信息论与编码[第四章波形信源和波形信道]山东大学期末考试知识点复习
- 格式:pdf
- 大小:635.70 KB
- 文档页数:10
信息论与编码知识点总结信息论与编码随着计算机技术的发展,人类对信息的传输、存储、处理、交换和检索等的研究已经形成一门独立的学科,这门学科叫做信息论与编码。
我们来看一下信息论与编码知识点总结。
二、决定编码方式的三个主要因素1。
信源—信息的源头。
对于任何信息而言,它所包含的信息都是由原始信号的某些特征决定的。
2。
信道—信息的载体。
不同的信息必须有不同的载体。
3。
编码—信息的传递。
为了便于信息在信道中的传输和解码,就需要对信息进行编码。
三、信源编码(上) 1。
模拟信号编码这种编码方式是将信息序列变换为电信号序列的过程,它能以较小的代价完成信息传送的功能。
如录音机,就是一种典型的模拟信号编码。
2。
数字信号编码由0和1表示的数字信号叫做数字信号。
在现实生活中,数字信号处处可见,像电话号码、门牌号码、邮政编码等都是数字信号。
例如电话号码,如果它用“ 11111”作为开头,那么这串数字就叫做“ 11”位的二进制数字信号。
数字信号的基本元素是0和1,它们组成二进制数,其中每一个数码都是由两个或更多的比特构成的。
例如电话号码就是十一位的二进制数。
我们平常使用的编码方法有: A、首部-----表明发送者的一些特征,如发送者的单位、地址、性别、职务等等B、信源-----表明信息要发送的内容C、信道-----信息要通过的媒介D、信宿-----最后表明接受者的一些特征E、加密码----对信息进行加密保护F、均匀量化----对信息进行量化G、单边带----信号只在一边带宽被传输H、调制----将信息调制到信号载波的某一特定频率上I、检错----信息流中若发生差错,则输出重发请求消息,比如表达公式时,可写成“ H=k+m-p+x”其中H=“ X+m-P-k”+“ y+z-p-x”+“ 0-w-k-x”,这样通过不断积累,就会发现:用无限长字符可以表达任意长度的字符串;用不可再分割的字符串表达字符串,且各字符之间没有空格等等,这些都表明用无限长字符串表达字符串具有很大的优越性,它的许多优点是有限长字符串不能取代的。
《信息论与编码技术》复习提纲复习题纲第0章绪论题纲:I.什么是信息?II.什么是信息论?III.什么是信息的通信模型?IV.什么是信息的测度?V.自信息量的定义、含义、性质需掌握的问题:1.信息的定义是什么?(广义信息、狭义信息——Shannon信息、概率信息)2.Shannon信息论中信息的三要素是什么?3.通信系统模型图是什么?每一部分的作用的是什么?4.什么是信息测度?5.什么是样本空间、概率空间、先验概率、自信息、后验概率、互信息?6.自信息的大小如何计算?单位是什么?含义是什么(是对什么量的度量)?第1章信息论基础㈠《离散信源》题纲:I.信源的定义、分类II.离散信源的数学模型III.熵的定义、含义、性质,联合熵、条件熵IV.离散无记忆信源的特性、熵V.离散有记忆信源的熵、平均符号熵、极限熵VI.马尔科夫信源的定义、状态转移图VII.信源的相对信息率和冗余度需掌握的问题:1.信源的定义、分类是什么?2.离散信源的数学模型是什么?3.信息熵的表达式是什么?信息熵的单位是什么?信息熵的含义是什么?信息熵的性质是什么?4.单符号离散信源最大熵是多少?信源概率如何分布时能达到?5.信源的码率和信息率是什么,如何计算?6.什么是离散无记忆信源?什么是离散有记忆信源?7.离散无记忆信源的数学模型如何描述?信息熵、平均符号熵如何计算?8.离散有记忆多符号离散平稳信源的平均符号熵、极限熵、条件熵(N阶熵)的计算、关系和性质是什么?9.什么是马尔科夫信源?马尔科夫信源的数学模型是什么?马尔科夫信源满足的2个条件是什么?10.马尔科夫信源的状态、状态转移是什么?如何绘制马尔科夫信源状态转移图?11.马尔科夫信源的稳态概率、稳态符号概率、稳态信息熵如何计算?12.信源的相对信息率和冗余度是什么?如何计算?㈡《离散信道》题纲:I.信道的数学模型及分类II.典型离散信道的数学模型III.先验熵和后验熵IV.互信息的定义、性质V.平均互信息的定义、含义、性质、维拉图VI.信道容量的定义VII.特殊离散信道的信道容量需掌握的问题:1.信道的定义是什么?信道如何分类?信道的数学模型是什么?2.二元对称信道和二元删除信道的信道传输概率矩阵是什么?3.对称信道的信道传输概率矩阵有什么特点?4.根据信道的转移特性图,写出信道传输概率矩阵。
第1章 概论1. 信号(适合信道传输的物理量)、信息(抽象的意识/知识,是系统传输、转换、处理的对象)和消息(信息的载体)定义;相互关系:(1信号携带消息,是消息的运载工具(2信号携带信息但不是信息本身(3同一信息可用不同的信号来表示(4同一信号也可表示不同的信息。
2. 通信的系统模型及目的:提高信息系统可靠性、有效性和安全性,以达到系统最优化.第2章 信源及信息量1. 单符号离散信源数学模型2. 自信息量定义:一随机事件发生某一结果时带来的信息量I(xi)=- log2P(xi)、单位:bit 、物理意义:确定事件信息量为0;0概率事件发生信息量巨大、性质:I(xi)非负;P(xi)=1时I(xi)=0;P(xi)=0时I(xi)无穷;I(xi)单调递减;I(xi)是随机变量。
3. 联合自信息量:I(xiyi)=- log2P(xiyj) 物理意义:两独立事件同时发生的信息量=各自发生的信息量的和、条件自信息量:I(xi/yi)=- log2P(xi/yj);物理意义:特定条件下(yj 已定)随机事件xi 所带来的信息量。
三者关系:I(xi/yi)= I(xi)+ I(yi/xi)= I(yi)+ I(xi/yi)4. 熵:定义(信源中离散消息自信息量的数学期望)、单位(比特/符号)、物理意义(输出消息后每个离散消息提供的平均信息量;输出消息前信源的平均不确定度;变量的随机性)、计算:(H(X)=-∑P(xi)log2 P(xi)) 1)连续熵和离散的区别:离散熵是非负的2)离散信源当且仅当各消息P 相等时信息熵最大H (X )=log 2 n 。
3)连续信源的最大熵:定义域内的极值.5.条件熵H(Y/X) = -∑∑P(xiyj) log2P(yj/xi),H (X /Y )= -∑∑P(xiyj) log2P(xi/yj) 、物理意义:信道疑义度H(X/Y):信宿收到Y 后,信源X 仍存在的不确定度,有噪信道传输引起信息量的损失,也称损失熵。
《信息论基础》参考答案一、填空题1、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。
2、信源的剩余度主要来自两个方面,一是信源符号间的相关性,二是信源符号的统计不均匀性。
3、三进制信源的最小熵为0,最大熵为bit/符号。
4、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r (S))。
5、当R=C或(信道剩余度为0)时,信源与信道达到匹配.6、根据信道特性是否随时间变化,信道可以分为恒参信道和随参信道。
7、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。
8、若连续信源输出信号的平均功率为,则输出信号幅度的概率密度是高斯分布或正态分布或时,信源具有最大熵,其值为值。
9、在下面空格中选择填入数学符号“”或“"(1)当X和Y相互独立时,H(XY)=H(X)+H(X/Y)=H(Y)+H(X)。
(2)(3)假设信道输入用X表示,信道输出用Y表示.在无噪有损信道中,H(X/Y)〉 0, H(Y/X)=0,I(X;Y)<H(X)。
二、若连续信源输出的幅度被限定在【2,6】区域内,当输出信号的概率密度是均匀分布时,计算该信源的相对熵,并说明该信源的绝对熵为多少.=2bit/自由度该信源的绝对熵为无穷大.三、已知信源(1)用霍夫曼编码法编成二进制变长码;(6分)(2)计算平均码长;(4分)(3)计算编码信息率;(2分)(4)计算编码后信息传输率;(2分)(5)计算编码效率。
(2分)(1)编码结果为:(2)(3)(4)其中,(5)四、某信源输出A、B、C、D、E五种符号,每一个符号独立出现,出现概率分别为1/8、1/8、1/8、1/2、1/8。
如果符号的码元宽度为0。
5。
计算:(1)信息传输速率。
(2)将这些数据通过一个带宽为B=2000kHz的加性白高斯噪声信道传输,噪声的单边功率谱密度为。
试计算正确传输这些数据最少需要的发送功率P。
解:(1)(2)五、一个一阶马尔可夫信源,转移概率为.(1) 画出状态转移图。
1第1章 概论1. 信号(适合信道传输的物理量)、信息(抽象的意识/知识,是系统传输、转换、处理的对象)和消息(信息的载体)定义;相互关系:(1信号携带消息,是消息的运载工具(2信号携带信息但不是信息本身(3同一信息可用不同的信号来表示(4同一信号也可表示不同的信息。
2. 通信的系统模型及目的:提高信息系统可靠性、有效性和安全性,以达到系统最优化.第2章 信源及信息量1. 单符号离散信源数学模型2. 自信息量定义:一随机事件发生某一结果时带来的信息量I(xi)=-log2P(xi)、单位:bit 、物理意义:确定事件信息量为0;0概率事件发生信息量巨大、性质:I(xi)非负;P(xi)=1时I(xi)=0;P(xi)=0时I(xi)无穷;I(xi)单调递减;I(xi)是随机变量。
3. 联合自信息量:I(xiyi)=- log2P(xiyj) 物理意义:两独立事件同时发生的信息量=各自发生的信息量的和、条件自信息量:I(xi/yi)=- log2P(xi/yj);物理意义:特定条件下(yj 已定)随机事件xi 所带来的信息量。
三者关系:I(xi/yi)= I(xi)+ I(yi/xi)= I(yi)+ I(xi/yi)4. 熵:定义(信源中离散消息自信息量的数学期望)、单位(比特/符号)、物理意义(输出消息后每个离散消息提供的平均信息量;输出消息前信源的平均不确定度;变量的随机性)、计算:(H(X)=-∑P(xi)log2 P(xi)) 1)连续熵和离散的区别:离散熵是非负的2)离散信源当且仅当各消息P相等时信息熵最大H (X )=log 2 n 。
3)连续信源的最大熵:定义域内的极值. 5.条件熵H(Y/X) = -∑∑P(xiyj) log2P(yj/xi),H (X /Y )= -∑∑P(xiyj) log2P(xi/yj) 、物理意义:信道疑义度H(X/Y):信宿收到Y 后,信源X 仍存在的不确定度,有噪信道传输引起信息量的损失,也称损失熵。
信息论与编码复习
去年考点(部分):
简答题:香农第一定理P106、香农第二定理P141
计算题:马尔可夫信源P37、香农编码P110、霍夫曼编码P111、费诺编码P115、平均错误概率P131(例6.3)、例5.10。
重点:
第二章:本章为基础性内容,主要是理解专业词语的含义,记住公式,可参考笔记。
第三章:
重点3.3节,特别是马尔可夫信源P37~P40,会画状态转移图,会求状态转移概率矩阵(例3.5 P38、例3.6 P40)。
第四章:
各种信道容量的计算P58(例4.1、4.2、4.3)、离散对称信道的判别和信道容量计算P61~P64。
第五章:
定长码、码的分类P91、定长码及定长编码定理P94、编码效率P97、Kraft和McMillan不等式、唯一可译码存在条件P100、编码效率及剩余度P108、变长码编码(例 5.5 P108、例5.6 P110、例5.7 P112、例5.8 P115、例5.9 P116)。
第六章:
最大后验概率译码准则、极大似然译码规则P131、平均错误概率P131(例6.3 P131)、编码效率P150、线性分组码P150(例6.6 、6.7、6.8 P154、例5.10 P161)。
第四章波形信源和波形信道4.1.1连续信源的差熵差熵(有称为相对熵或称微分熵)已不具有信息熵的物理含义。
但在任何包含有两个信息熵的“熵差”问题中,它能替代信息熵H(X)而具有信息的特征。
其单位是:对数以2为底,是比特/自由度;以e为底,是奈特/自由度;以10为底,是哈特/自由度。
4.1.2 多维连续平稳信源的信息熵则各连续型随机变量彼此统计独立,称为连续平稳无记忆信源。
否则,为平稳有记忆信源。
N维连续平稳信源可用下列一些差熵进行信息测度:1.联合差熵(1)二维联合差熵2.条件差熵(1)二维连续随机序列X=X1X2的条件差熵3.各种差熵之间的关系4.1.3 波形信源的差熵4.1.4 差熵的性质与离散信源的信息熵比较,连续信源的差熵具有以下一些性质:1.可加性任意两个相互关联的连续信源X和Y,有3.差熵可为负值不存在非负性。
4.极值性即最大差熵定理。
5.变换性连续信源输出的随机变量(或随机矢量)通过确定的一一对应变换,其差熵发生变化。
但对于离散信源来说,其信息熵是不变的。
4.1.5 最大差熵定理1.峰值功率受限(取值幅度受限)(1)连续随机变量X,其取值幅度限于区间[a,b]内,则其概率密度函数是均匀分布时,差熵具最大值。
最大值为3.协方差矩阵受限N维随机矢量X=X1X2…X N,其N维协方差矩阵C受限(即各随机变量X i 的均值限定为m i(i=1,2,…,N),随机变量X i与X j之间的二阶中心矩限定为μ(i,j=1,2,…,N),则N维高斯信源(即X~N(m i,C)的差熵最大,最大值为ij4.1.6 连续信源熵的变换1.连续随机变量4.1.8 波形信道和连续信道的分类和数学模型1.波形信道(模拟信道)信道的输入/输出信号都是平稳随机过程{x(t)}和{y(t)},则称之为波形信道。
波形信道在限频、限时条件下,根据取样定理,可离散化成多维连续信道。
2.多维连续信道4.加性信道信道中噪声对信号的作用:5.高斯白噪声信道若信道的噪声是高斯噪声,即噪声是平稳随机过程,其瞬时值的概率密度函数服从正态分布(高斯分布),则此信道称为高斯信道。
第四章波形信源和波形信道
4.1.1连续信源的差熵
差熵(有称为相对熵或称微分熵)已不具有信息熵的物理含义。
但在任何包含有两个信息熵的“熵差”问题中,它能替代信息熵H(X)而具有信息的特征。
其单位是:对数以2为底,是比特/自由度;以e为底,是奈特/自由度;以10为底,是哈特/自由度。
4.1.2 多维连续平稳信源的信息熵
则各连续型随机变量彼此统计独立,称为连续平稳无记忆信源。
否则,为平稳有记忆信源。
N维连续平稳信源可用下列一些差熵进行信息测度:
1.联合差熵
(1)二维联合差熵
2.条件差熵
(1)二维连续随机序列X=X1X2的条件差熵
3.各种差熵之间的关系
4.1.3 波形信源的差熵
4.1.4 差熵的性质
与离散信源的信息熵比较,连续信源的差熵具有以下一些性质:
1.可加性
任意两个相互关联的连续信源X和Y,有
3.差熵可为负值
不存在非负性。
4.极值性
即最大差熵定理。
5.变换性
连续信源输出的随机变量(或随机矢量)通过确定的一一对应变换,其差熵发生变化。
但对于离散信源来说,其信息熵是不变的。
4.1.5 最大差熵定理
1.峰值功率受限(取值幅度受限)
(1)连续随机变量X,其取值幅度限于区间[a,b]内,则其概率密度函数是均
匀分布时,差熵具最大值。
最大值为
3.协方差矩阵受限
N维随机矢量X=X1X2…X N,其N维协方差矩阵C受限(即各随机变量X i 的均值限定为m i(i=1,2,…,N),随机变量X i与X j之间的二阶中心矩限定为μ
(i,j=1,2,…,N),则N维高斯信源(即X~N(m i,C)的差熵最大,最大值为ij
4.1.6 连续信源熵的变换
1.连续随机变量
4.1.8 波形信道和连续信道的分类和数学模型
1.波形信道(模拟信道)
信道的输入/输出信号都是平稳随机过程{x(t)}和{y(t)},则称之为波形信道。
波形信道在限频、限时条件下,根据取样定理,可离散化成多维连续信道。
2.多维连续信道
4.加性信道
信道中噪声对信号的作用:
5.高斯白噪声信道
若信道的噪声是高斯噪声,即噪声是平稳随机过程,其瞬时值的概率密度函数服从正态分布(高斯分布),则此信道称为高斯信道。
若信道的噪声是白噪声,即噪声是平稳随机过程,其功率谱密度均匀分布于整个频域,则此信道称为白噪声信道。
若信道的噪声是高斯分布的白噪声,则此信道称为高斯白噪声信道。
4.1.9 连续信道和波形信道的平均互信息及其特性
1.基本连续信道
4.1.10 连续信道和波形信道的信道容量
连续信道和波形信道的信道容量基本同于离散信道,是对输入信号概率密度函数求平均互信息的极大值。
不同的是,还需考虑输入信号和信道噪声所受的不同限制条件。
一般情况,只研究平均功率受限的加性噪声信道。
1.单符号高斯加性信道
4.1.11 香农公式的重要实际指导意义
香农公式将信息传输率(信道的统计信息参量)与信道的实际物理量(带宽W、传输时间T,以及信噪功率比P s/P n)联系了起来。
一旦这三个物理量确定,理想通信系统的极限信息传输率也就确定了。
香农公式有以下几个重要结论:
(1)信道容量一定时,在理想情况下,连续信道与信息传输有以下三种匹配方式:
①在固定传输时间T下,以带宽换取信噪比;
②在固定信噪比P s/P n下,以频带换取时间;
③在固定频带W下,以时间换取信噪比。
(2)无干扰连续信道的信道容量为无穷大。
(3)提高信道的信噪功率比,能增加信道的信道容量。
(4)增加信道带宽,并不能无限制地使信道容量增大。
(5)香农公式给出了无错误(无失真)通信的信息传输速率的理论极限值,称为
香农极限。