《信息论和编码技术》复习提纲
- 格式:doc
- 大小:76.50 KB
- 文档页数:8
第1章 概论1. 信号(适合信道传输的物理量)、信息(抽象的意识/知识,是系统传输、转换、处理的对象)和消息(信息的载体)定义;相互关系:(1信号携带消息,是消息的运载工具(2信号携带信息但不是信息本身(3同一信息可用不同的信号来表示(4同一信号也可表示不同的信息。
2. 通信的系统模型及目的:提高信息系统可靠性、有效性和安全性,以达到系统最优化.第2章 信源及信息量1. 单符号离散信源数学模型2. 自信息量定义:一随机事件发生某一结果时带来的信息量I(xi)=- log2P(xi)、单位:bit 、物理意义:确定事件信息量为0;0概率事件发生信息量巨大、性质:I(xi)非负;P(xi)=1时I(xi)=0;P(xi)=0时I(xi)无穷;I(xi)单调递减;I(xi)是随机变量。
3. 联合自信息量:I(xiyi)=- log2P(xiyj) 物理意义:两独立事件同时发生的信息量=各自发生的信息量的和、条件自信息量:I(xi/yi)=- log2P(xi/yj);物理意义:特定条件下(yj 已定)随机事件xi 所带来的信息量。
三者关系:I(xi/yi)= I(xi)+ I(yi/xi)= I(yi)+ I(xi/yi)4. 熵:定义(信源中离散消息自信息量的数学期望)、单位(比特/符号)、物理意义(输出消息后每个离散消息提供的平均信息量;输出消息前信源的平均不确定度;变量的随机性)、计算:(H(X)=-∑P(xi)log2 P(xi)) 1)连续熵和离散的区别:离散熵是非负的2)离散信源当且仅当各消息P 相等时信息熵最大H (X )=log 2 n 。
3)连续信源的最大熵:定义域内的极值.5.条件熵H(Y/X) = -∑∑P(xiyj) log2P(yj/xi),H (X /Y )= -∑∑P(xiyj) log2P(xi/yj) 、物理意义:信道疑义度H(X/Y):信宿收到Y 后,信源X 仍存在的不确定度,有噪信道传输引起信息量的损失,也称损失熵。
1第1章 概论1. 信号(适合信道传输的物理量)、信息(抽象的意识/知识,是系统传输、转换、处理的对象)和消息(信息的载体)定义;相互关系:(1信号携带消息,是消息的运载工具(2信号携带信息但不是信息本身(3同一信息可用不同的信号来表示(4同一信号也可表示不同的信息。
2. 通信的系统模型及目的:提高信息系统可靠性、有效性和安全性,以达到系统最优化.第2章 信源及信息量1. 单符号离散信源数学模型2. 自信息量定义:一随机事件发生某一结果时带来的信息量I(xi)=-log2P(xi)、单位:bit 、物理意义:确定事件信息量为0;0概率事件发生信息量巨大、性质:I(xi)非负;P(xi)=1时I(xi)=0;P(xi)=0时I(xi)无穷;I(xi)单调递减;I(xi)是随机变量。
3. 联合自信息量:I(xiyi)=- log2P(xiyj) 物理意义:两独立事件同时发生的信息量=各自发生的信息量的和、条件自信息量:I(xi/yi)=- log2P(xi/yj);物理意义:特定条件下(yj 已定)随机事件xi 所带来的信息量。
三者关系:I(xi/yi)= I(xi)+ I(yi/xi)= I(yi)+ I(xi/yi)4. 熵:定义(信源中离散消息自信息量的数学期望)、单位(比特/符号)、物理意义(输出消息后每个离散消息提供的平均信息量;输出消息前信源的平均不确定度;变量的随机性)、计算:(H(X)=-∑P(xi)log2 P(xi)) 1)连续熵和离散的区别:离散熵是非负的2)离散信源当且仅当各消息P相等时信息熵最大H (X )=log 2 n 。
3)连续信源的最大熵:定义域内的极值. 5.条件熵H(Y/X) = -∑∑P(xiyj) log2P(yj/xi),H (X /Y )= -∑∑P(xiyj) log2P(xi/yj) 、物理意义:信道疑义度H(X/Y):信宿收到Y 后,信源X 仍存在的不确定度,有噪信道传输引起信息量的损失,也称损失熵。
1、在认识论层次上研究信息时,必须同时考虑到形式、(含义)和(效用)3个方面的因素2、如果从随机不确定性的角度来定义信息,信息反映(不确定性)的消除量。
3、信源编码的结果是(减少)冗余;而信道编码的手段是(增加)冗余。
4(1948)年,香农发表了著名的论文(通信的数学理论),标志着信息论的诞生。
5、信息商品是一种特殊商品,它有(客观)性、(共享)性、(时效)性和知识创造征。
6、对信源进行观查之前,对认识的主体来说,信源存在(先验)不确定性,观察之后,信源还存在(后验)不确定性。
7、联合符号(x i ,y j )的不确定性,等于(关于y j )不确定性加上(观查到y j 后还剩余)不确定性。
8、256个亮度构成的信源,其熵值最大为(log256=8)。
9、无条件熵(不小于)条件熵,条件多的熵(不大于)条件少的熵。
10、信源编码实质上是对信源进行信息处理,无失真信源编码只是信息处理的方法之一,除此外,还可以对信源进行(限失真)编码。
11、无失真编码对应于无损信道,有失真编码对应于(有噪)信道。
12、有失真编码的(失真范围)受限,所以又称为限失真编码;编码后的(信息率)得到压缩,因此属熵压缩编码。
13、满足(平均失真D D ≤失真度)的信道称为D 允许[试验]信道。
1、无失真编码只对信源的(冗余度)一进行压缩,而不会改变信源的熵,又称冗余度压缩编码。
2、无失真信源编码的作用可归纳为:(1)(符号变换); (2)(冗余度压缩)。
3、(含相同的码字)的码称为奇异码。
1、 研究信息论的主要目的是什么?答:能够高效、可靠、安全并且随心所欲地交换和利用各种各样的信息。
2、信息论的定义(狭义、广义)答:狭义:在信息可以度量的基础上,研究有效和可靠的传递信息的科学。
广义:包含通信的全部统一问题的研究,香农信息论、信号设计、噪声理论、信号检测与估值等。
3、信息有哪些特征?答:(1)接收者在收到信息前对它的内容未知;(2)信息是能使认识主体对某一事物的未知性或不确定性减少的有用的知识;3)信息可以产生、消灭、被携带、贮存及处理;(4)信息可以度量。
《信息论与编码技术》复习提纲复习题《信息论与编码技术》复习提纲复习题纲第0章绪论题纲:I.什么是信息?II.什么是信息论?III.什么是信息的通信模型?IV.什么是信息的测度?V.自信息量的定义、含义、性质需掌握的问题:1.信息的定义是什么?(广义信息、狭义信息——Shannon信息、概率信息)2.Shannon信息论中信息的三要素是什么?3.通信系统模型图是什么?每一部分的作用的是什么?4.什么是信息测度?5.什么是样本空间、概率空间、先验概率、自信息、后验概率、互信息?6.自信息的大小如何计算?单位是什么?含义是什么(是对什么量的度量)?第1章信息论基础㈠《离散信源》题纲:I.信源的定义、分类II.离散信源的数学模型III.熵的定义、含义、性质,联合熵、条件熵IV.离散无记忆信源的特性、熵V.离散有记忆信源的熵、平均符号熵、极限熵VI.马尔科夫信源的定义、状态转移图VII.信源的相对信息率和冗余度需掌握的问题:1.信源的定义、分类是什么?2.离散信源的数学模型是什么?3.信息熵的表达式是什么?信息熵的单位是什么?信息熵的含义是什么?信息熵的性质是什么?4.单符号离散信源最大熵是多少?信源概率如何分布时能达到?5.信源的码率和信息率是什么,如何计算?6.什么是离散无记忆信源?什么是离散有记忆信源?7.离散无记忆信源的数学模型如何描述?信息熵、平均符号熵如何计算?8.离散有记忆多符号离散平稳信源的平均符号熵、极限熵、条件熵(N阶熵)的计算、关系和性质是什么?9.什么是马尔科夫信源?马尔科夫信源的数学模型是什么?马尔科夫信源满足的2个条件是什么?10.马尔科夫信源的状态、状态转移是什么?如何绘制马尔科夫信源状态转移图?11.马尔科夫信源的稳态概率、稳态符号概率、稳态信息熵如何计算?12.信源的相对信息率和冗余度是什么?如何计算?㈡《离散信道》题纲:I.信道的数学模型及分类II.典型离散信道的数学模型III.先验熵和后验熵IV.互信息的定义、性质V.平均互信息的定义、含义、性质、维拉图VI.信道容量的定义VII.特殊离散信道的信道容量需掌握的问题:1.信道的定义是什么?信道如何分类?信道的数学模型是2.二元对称信道和二元删除信道的信道传输概率矩阵是什么?3.对称信道的信道传输概率矩阵有什么特点?4.根据信道的转移特性图,写出信道传输概率矩阵。
“信息论与编码”总复习*****************************************************************************简要***************************************************************************** 第二章 信源与信息熵1.每次只发出一个符号代表一个消息的信源叫做发出单个符号的无记忆信源。
2.由一系列符号组成,这种用每次发出1组含2个以上符号序列来代表一个信息的信源叫做发出符号序列的信源。
3.信源发出的序列的统计性质与时间的推移无关,是平稳的随机序列。
4.当信源的记忆长度为m+1时,该时刻发出的符号与前m 个符号有关联性,而与更前面的符号无关,这种有记忆信源叫做m 阶马尔可夫信源。
若上述条件概率与时间起点无关,则信源输出的符号序列可看成齐次马尔可夫链,这样的信源叫做齐次马尔可夫信源。
5.例题:稳态分布概率|稳定后的符号概率分布:符号条件概率矩阵:1/22/33/44/5⎡⎤⎢⎥⎢⎥-⎢⎥⎢⎥⎣⎦j i 1/21/3[p(s |s )]=1/41/5状态转移概率矩阵1/20001/32/33/40004/5⎡⎤⎢⎥⎢⎥---⎢⎥⎢⎥⎣⎦j i 1/20[p(s |s )]=1/41/50令各稳态分布概率为W1,W2,W3,W4:1131124W W W =+ 2131324W W W =+ 3241135W W W =+ 4242435W W W =+ 12341W W W W +++= 得稳态分布的概率:W1=3/35 W2=6/35 W3=6/35 W4=4/7稳定后的符号概率分布:11131616149()(|)()2353354355735i i i p a p a s p s ==⨯+⨯+⨯+⨯=∑ 221326364426()(|)()2353354355735i i ip a p a s p s ==⨯+⨯+⨯+⨯=∑6.定义具有概率为()i p x 的符号i x 的自信息量为:()log ()i i I x p x =-7.自信息量具有下列特性:(1)()1,()0i i p x I x ==(2)()0,()i i p x I x ==∞(3)非负性(4)单调递减性(5)可加性8.信源熵是在平均意义上来表征信源的总体特征,它是信源X 的 函数,一般写成H (X )。
《信息论与编码技术》复习提纲
一、考试题型
1.名词解释(10%)
2.填空题(20%)
3.判断题(10%)
4.简答题(20%)
5.证明题(10%)
6.计算题(30%)
二、考试时间
1月9日10:20-12:20
三、复习题纲
第0章绪论
题纲:
I.什么是信息?
II.什么是信息论?
III.什么是信息的通信模型?
IV.什么是信息的测度?
V.自信息量的定义、含义、性质
需掌握的问题:
1.信息的定义是什么?(广义信息、狭义信息——
Shannon信息、概率信息)
2.Shannon信息论中信息的三要素是什么?
3.通信系统模型图是什么?每一部分的作用的是什么?
4.什么是信息测度?
5.什么是样本空间、概率空间、先验概率、自信息、后验
概率、互信息?
6.自信息的大小如何计算?单位是什么?含义是什么(是
对什么量的度量)?
第1章信息论基础
㈠《离散信源》题纲:
I.信源的定义、分类
II.离散信源的数学模型
III.熵的定义、含义、性质,联合熵、条件熵
IV.离散无记忆信源的特性、熵
V.离散有记忆信源的熵、平均符号熵、极限熵
VI.马尔科夫信源的定义、状态转移图
VII.信源的相对信息率和冗余度
需掌握的问题:
1.信源的定义、分类是什么?
2.离散信源的数学模型是什么?
3.信息熵的表达式是什么?信息熵的单位是什么?信息熵
的含义是什么?信息熵的性质是什么?
4.单符号离散信源最大熵是多少?信源概率如何分布时能
达到?
5.信源的码率和信息率是什么,如何计算?
6.什么是离散无记忆信源?什么是离散有记忆信源?
7.离散无记忆信源的数学模型如何描述?信息熵、平均符
号熵如何计算?
8.离散有记忆多符号离散平稳信源的平均符号熵、极限熵、
条件熵(N阶熵)的计算、关系和性质是什么?
9.什么是马尔科夫信源?马尔科夫信源的数学模型是什
么?马尔科夫信源满足的2个条件是什么?
10.马尔科夫信源的状态、状态转移是什么?如何绘制马尔
科夫信源状态转移图?
11.马尔科夫信源的稳态概率、稳态符号概率、稳态信息熵
如何计算?
12.信源的相对信息率和冗余度是什么?如何计算?
㈡《离散信道》题纲:
I.信道的数学模型及分类
II.典型离散信道的数学模型
III.先验熵和后验熵
IV.互信息的定义、性质
V.平均互信息的定义、含义、性质、维拉图
VI.信道容量的定义
VII.特殊离散信道的信道容量
需掌握的问题:
1.信道的定义是什么?信道如何分类?信道的数学模型是
什么?
2.二元对称信道和二元删除信道的信道传输概率矩阵是什
么?
3.对称信道的信道传输概率矩阵有什么特点?
4.根据信道的转移特性图,写出信道传输概率矩阵。
5.先验熵、后验熵的区别?
6.联合熵、条件熵和信息熵的关系。
7.互信息的大小如何计算?互信息的性质是什么?
8.联合互信息、条件互信息、互信息之间的关系是什么?
9.平均互信息的定义是什么?平均互信息的含义?平均互
信息的性质?
10.联合平均互信息、条件平均互信息和平均互信息的关系?
11.损失熵和噪声熵的含义是什么?维拉图表示了哪些关系
式?
12.信道的传码率和传信率(信息率)的计算方法是什么?
13.信道容量的定义是什么?信道容量的含义如何理解?
14.无噪无损信道、有噪无损信道、无噪有损信道、对称信道
的信道容量如何计算?
㈢《连续信源和波形信道》
题纲:
I.连续信源的定义、数学模型、绝对熵、相对熵
II.给定条件下,连续信源的最大熵
III.熵功率
IV.连续信道和波形信道的信道容量
需掌握的问题:
1.连续信源定义、数学模型是什么?
2.连续信源熵的表达式是什么?相对熵和绝对熵的区别是
什么?
3.如何计算均匀分布、正态分布连续信源的最大熵?
4.什么是波形信道?了解波形信道互信息、信道容量的求
解思路。
5.香农公式是什么?物理意义是什么?
第2章无失真信源编码
题纲:
I.基本概念
1.编码
2.二元码
3.等长码
4.变长码
5.码的N次扩展码
6.唯一可译码
II.等长码
III.变长码
IV.无失真信源编码定理
V.编码方法
1.香农编码
2.费诺编码
3.霍夫曼编码
需掌握的问题:
1.编码的定义及编码相关术语。
2.信源编码的定义及目的是什么?
3.解释二元码、等长码、变长码、唯一可译码。
4.变长码和定长码的区别是什么?用码树描述二者的差
异,能够说明变长码和定长码各自的优劣。
5.描述香农第一定理及意义。
6.掌握香农编码、费诺编码、霍夫曼编码的步骤及特点,
会计算编码效率。
7.了解游程编码和算术编码的思路。
第3章信道编码
题纲:
I.检错、纠错原理及方法、能力
II.差错控制理论
1.译码规则
2.2种准则下的错误概率
III.信道编码定理
IV.编码方法
1.简单的检错、纠错码
2.线性分组码
3.循环码
需掌握的问题:
1.信道编码的定义及目的是什么?
2.检错原理是什么?
3.差错控制方法有哪些?
4.如何确定一种编码的检错、纠错能力?
5.汉明距离是什么?汉明重量是什么?最小码距是什么?
6.信道编码的效率如何确定?
7.奇偶校验码的编码规则是什么?检错、纠错能力如何?
8.译码规则的定义是什么?
9.最大后验准则是什么?极大似然准则是什么?这两种准
则下如何计算错误概率?
10.错误概率与损失熵之间的关系是什么?
11.描述香农第二定理及意义。
12.线性分组码的编码原理和校验原理是什么?
13.循环码的编码原理和校验原理是什么?
14.了解循环冗余校验码和卷积码的编码思路。
第4章信息率失真函数
题纲:
V.失真度
VI.平均失真度
VII.信息率失真函数
VIII.信息率失真函数的性质
IX.限失真信源编码定理
需掌握的问题:
1.失真度如何表示?
2.四种常见失真度的形式分别是什么?分别用于什么场
合?
3.平均失真度如何计算?
4.什么是保真度准则?
5.什么是试验信道?
6.信息率失真函数的定义是什么?
7.信息率失真函数和信道容量的区别和联系是什么?
8.信息率失真函数的性质是什么?
9.定义域D min, D max,以及相应的R(D min), R(D max)如何
计算?
10.描述香农第三定理及意义。
11.了解预测编码和变换编码的思路。