信息论基础复习
- 格式:ppt
- 大小:705.50 KB
- 文档页数:37
信息论复习提纲第一章1、信息的概念。
信息是事物运动状态或存在方式的不确定性的描述。
2、信息论的研究对象、研究目的。
对象:通信系统模型。
目的:找到信息传输过程的共同规律,以提高信息传输的可靠性、有效性、保密性和认证性,以达到信息传输系统最优化。
3、通信系统模型的组成,及各部分的功能(1)信息源:产生消息的源,消息可以是文字,语言,图像。
可以离散,可以连续。
随机发生。
(2)编码器:信源编码器:对信源输出进行变换(消去冗余,压缩),提高信息传输的有效性信道编码器:对信源编码输出变换(加入冗余),提高抗干扰能力,提高信息传输的可靠性(3)信道:信号从发端传到收端的介质(4)译码器:译码就是把信道输出(已叠加了干扰)的编码信号进行反变换。
(5)信宿:信宿是消息传送的对象,即接受消息的人或机器。
(6)干扰源:系统各部分引入的干扰,包括衰落,多径,码间干扰,非线性失真,加性噪声,主要研究的是统计特性。
4、消息,信号,信息三者之间的关系信息---可以认为是具体的物理信号、数学描述的消息的内涵,即信号具体载荷的内容、消息描述的含义。
信号---则是抽象信息在物理层表达的外延;消息---则是抽象信息在数学层表达的外延第二章1、信源的分类,着重单符号信源。
信源的概率空间的构成形式。
单消息(符号)信源,离散信源,连续变量信源,平稳信源,无/有记忆信源,马尔可夫信源,随机波形信源。
单消息(符号)信源:单消息(符号)信源--离散信源单消息(符号)信源--连续信源2、自信息的计算及物理含义,单位与底数的关系,含义。
计算:含义:当事件ai发生以前,表示事件ai发生的不确定性当事件ai发生以后表示事件ai所含有(所提供)的信息量单位与底数的关系:通信与信息中最常用的是以2为底,这时单位为比特(bit);理论推导中用以e为底较方便,这时单位为奈特(Nat);工程上用以10为底较方便,这时单位为哈特(Hart)。
它们之间可以引用对数换底公式进行互换。
信息论基础A 复习资料作者 郝仁第一章 概论● 在认识论层次研究信息时,把只考虑到形式因素的部分称为语法信息, 把只考虑到含义因素的部分称为语义信息;把只考虑到效用因素的部分称为语用信息。
目前,信息论中主要研究语法信息● 归纳起来,香农信息论的研究内容包括: 1) 信息熵、信道容量和信息率失真函数2) 无失真信源编码定理、信道编码定理和保真度准则下的信源编码定理 3) 信源编码、信道编码理论与方法● 一般认为,一般信息论的研究内容除香农信息论的研究内容外,还包括 维纳的微弱信号检测理论:包括噪声理论、信号滤波与预测、统计检测与估计理论、调制理论等。
信息科学以信息为研究对象,信息科学以信息运动规律为研究内容,信 息运动包括获取、传递、存储、处理和施用等环节。
第二章 离散信源及离散熵● 单符号离散信源的数学模型:1212()()()()n n x x x X P x P x P x P X ⎧⎫⎡⎤=⎨⎬⎢⎥⎣⎦⎩⎭L L自信息量:()log ()i x i I x P x =-,是无量纲的,一般根据对数的底来定义单位:当对数底为2时,自信息量的单位为比特(bit,binary unit);对数底为e 时,其单位为奈特(nat,nature unit);对数底为10时,其单位为哈特(Hart, Hartley)自信息量性质:I(x i )是随机量;I(x i )是非负值;I(x i )是P(x i )的单调递减函数。
● 单符号离散信源的离散熵:1()[()]()()ni i i i H X E I x P x lbP x ===-∑,单位是比特/符号(bit/symbol)。
离散熵的性质和定理:H(X)的非负性;H(X)的上凸性;最大离散熵定理:()H X lbn ≤● 如果除概率分布相同外,直到N 维的各维联合概率分布也都与时间起点 无关,即:111111()()()()()()k l k k l l k k k N l l l N P X P X P X X P X X P X X X P X X X ++++-++-===LL L则称该多符号离散信源为N 维离散平稳信源。
信息论复习要点1. 非奇异码:若一个码子中各码子都不相同,则称非奇异码,否则称为奇异码;2. 唯一可以码:若任何有限长信源序列都能译成唯一的信源消息序列,则称为唯一可译码;3. 二元最优码:就某一信源,存在最优的二进制码,其中至少有两个最长的码子有相同长度且仅最后一个码位有别。
4. AWGN 信道的容量:一个加性高斯白噪声(AWGN )信道的噪声功率谱为N 0/2,输入信号平均功率为P ,信道带宽为W ,那么信道每单位时间的容量为:0log 1P C W N W ⎛⎫=+ ⎪⎝⎭(容量单位为比特/秒)5. 对于输入平均功率受限的加性高斯噪声信道,当传输速率R<=C 时,总可以找到一种编码方式,使得差错率任意小;反之,找不到使译码错误概率任意小的编码。
6. 信息率失真理论是有损数据压缩的理论基础,该理论的核心是在保真度准则下的信源编码定理,即香农第三定理。
7. 限失真信源编码定理:()D R R D >→≤存在平均失真的信源编码8. 限失真信源信道编码定理:()D C R D >→≤存在平均失真的信源信道编码9. 和信道及其容量:若一个信道分为若干子信道,且各子信道输入之间互不相交,输出之间也互不相交,信道总的输出与输入集合分为各子信道输出与输入之并集,而且每次传输只能用某个子信道,则称此信道为和信道。
和信道容量:21log 2i NC i C ==∑其中,i C 为每个子信道的容量,第i 个子信道的使用概率为:1222ii iC C Ci NC i r -===∑达到容量时的输入概率为各子信道达到容量时的输入概率乘以i r ,N 为子信道的个数。
10. 各种信息的概率公式:自信息:()()log I x p x =-;联合自信息:()()log I xy p xy =-;条件自信息:()()|log |I x y p x y =-三者的关系:()()()()()||I xy I x I y x I y I x y =+=+; 互信息:()()()()()|,loglog|p x p x y I x y p x y p x =-=; 互信息与自信息和条件自信息的关系:()()(),|I x y I x I x y =-;11. 最佳判决与译码准则: MAP 准则:(输入不等概)(1)信道转移概率矩阵乘以信道输入符号概率得到联合概率矩阵; (2)联合概率矩阵每一列中找到一个最大的概率对应的输入符号就是译码; (3)正确概率是所有译码的概率和,错误概率是1与正确概率的差; ML 准则:(输入等概)(1)信道转移概率矩阵中最大的概率对应的输入符号作为译码输出; (2)正确概率是联合概率分布中译码概率的和,错误概率是1与之的差; 无记忆二元对称信道,最大似然准则等价于最小汉明距离准则;12. 并联高斯信道的容量,能量分布和输入概率分布:(输入均值为0) (1) 并联独立高斯信道:利用注水定理对能量进行分配,计算信道容量,达到容量时,两个信道的输入是独立的,所以输入的概率密度为:()2212122212,22x x p x x σσ⎛⎫=-- ⎪⎝⎭(2) 关联相关高斯信道:将噪声自协方差矩阵分解(如下公式所示),找出等价矩阵,利用注水定理计算信道容量,得到能量分配和输入概率密度公式;41501110122211⎛⎫⎫⎛⎫= ⎪⎪ ⎝⎭⎭⎝⎝ (3) 反推得到输入概率的协方差矩阵,进而得到输入概率的密度公式; (4) 对于独立并联高斯信道,达到容量时各子信道输入是独立的; (5) 对于相关并联高斯信道,达到容量时各子信道输入是相关的; (6) 在总噪声和输入平均能量约束都相同的条件下,相关并联高斯信道的容量大于独立并联高斯信道容量。
第一章 绪论1、什么是信息?香农对于信息是如何定义的。
答:信息是事物运动状态或存在方式的不确定性的描述(Information is a measure of one's freedom of choice when one selects a message )。
2、简述通信系统模型的组成及各部分的含义。
答:(1)、信源:信源是产生消息的源。
信源产生信息的速率---熵率。
(2)、编码器:编码器是将消息变成适合于信道传送的信号的设备。
包括信源编码器(提高传输效率)、信道编码器(提高传输可靠性)、调制器。
(3)、信道:信道是信息传输和存储的媒介。
(4)、译码器:译码是编码的逆变换,分为信道译码和信源译码。
(5)、信宿:信宿是消息的接收者(人或机器)。
3、简述香农信息论的核心及其特点。
答:(1)、香农信息论的核心:在通信系统中采用适当的编码后能够实现高效率和高可靠性的信息传输,并得出了信源编码定理和信道编码定理。
(2)、特点:①、以概率论、随机过程为基本研究工具。
②、研究的是通信系统的整个过程,而不是单个环节,并以编、译码器为重点。
③、关心的是最优系统的性能和怎样达到这个性能(并不具体设计系统)。
④、要求信源为随机过程,不研究信宿。
第二章 信息的度量2.1 自信息和互信息1、自信息(量):(1)、定义:一个事件(消息)本身所包含的信息量,它是由事件的不确定性决定的。
某个消息i x 出现的不确定性的大小定义为自信息,用这个消息出现的概率的对数的负值来表示: (2)、性质:①、()i x I是()i x p 的严格递减函数。
当()()21x p x p <时()()21x I x I >概率越小,事件发生的不确定性越大,事件发生以后所包含的自信息量越大。
()()()i i i x p x p x I 1loglog =-=②、极限情况下,当()0=i x p 时()∞→i x I ;当()1=i x p 时,()0→i x I 。
信息论基础第一讲信息的基本概念与预备知识一、信息的基本概念1、信息论是通信的数学理论,是运用数理统计的方法研究信息的传输、存储与处理的科学。
2、物质、能量、信息是构成客观世界的三大要素,信息存在于任何事物中,有物质的地方就有信息。
3、信息具有的性质(1)无形————不具实体性;(2)共享————交流者不会失去原有信息,还可获得新的信息,可无限传播,也可限制传播,如设密码、安全措施;(3)信息是一种资源————永远在产生、更新、演变,取之不尽用之不竭;(4)可度量————信息的数量和质量可度量。
3、概率信息(香农信息或狭义信息)美国数学家香农(C.E.Shannan)提出,信息源具有随机性不定度,为了消除一定的不定度必须获得与此不定度相等的信息量。
(1)甲袋有100个球,50个红,50个人白,取出一个为红;(2)乙袋有100个球,25个红,25个白,25个蓝,25个黑,取出一个为红;概率大,不确定性小,信息量小,。
4、消息构成消息的条件:能被通信双方理解,可在通信中进行传递和交换。
消息具有不同的形式,如语言、文字、符号、数据、图片等。
消息是信息的载荷者,同一消息可以含不同的信息量,同一信息可以用不同形式的消息来载荷。
5、信号信号是消息的表现形式,消息是信号的具体内容。
信号是消息的载体。
6、信息的传输系统信源——编码——信道——译码器——信宿 二、预备知识 1、全概公式∑∑====nk k k nk k A B p A p B A p B p 11)()()()(2、贝叶斯公式)()()()()()(B p A B p A p B p B A p B A p k k k k == 3、条件概率)()()(B p AB p B A p =4、乘法公式)()()()()(B A p B p A B p A p AB p ==4、不等式1ln 110-≤≤-⇒>x x xx三、自信息的度量 1、自信息随机事件ix 发生概率为)(ix p ,则随机事件ix 的自信息量为)(log )(i i x p x I -= 。
★★★上机操作注意事项:一看清考试日期时间,提前15分钟到场等候,千万不要迟到;二带准考证、身份证;三做操作题时仔细看清题目,操作题一次性从头做到尾,一定要存盘;四不要早交卷,做完一定要检查。
信息技术理论知识复习要点第一部分信息技术基础(必修)【第一章信息与信息技术】1、信息论的奠基人之一香农认为“信息是用来消除不确定性的东西”。
★2、控制论的奠基人维纳提出“信息就信息,不是物质,也不是能量”,信息、物质、能量是人类所必须得三大资源。
3、利用文字、图形、图像、声音等形式作为载体,通过各种渠道传播的信号、消息或报道等内容,都可以称之为信息。
★4、信息的重要特征:①传递性(一传十,十传百)②共享性(一人计短,二人计长)③依附性和可处理性(玉不琢,不成器)④时效性(老黄历看不得)⑤价值相对性(一千个读者,一千个“哈姆雷特”)⑥真伪性(空城计、减灶退兵)5、信息技术(IT)主要包括计算机技术、通信技术、微电子技术和传感技术等。
计算机技术是信息处理的核心。
6、信息技术的五次发展历程:第一次是语言的产生和应用;第二次是文字的发明和使用;第三次是造纸术和印刷术的发明和应用;第四次是电报、电话、电视及其他通讯技术的发明和应用;第五次是电子计算机和现代通信技术的应用。
7、信息技术的发展趋势:①多元化;②网络化;③多媒体化;④智能化;⑤虚拟化。
8、计算机辅助技术(CAD)【第二章信息的获取】1、获取信息的基本过程:确定信息需求→确定信息来源→采集信息→保存信息2、根据不同的信息来源,信息采集有不同的方法:①通过检索媒体采集信息;②通过与他人交流采集信息;③通过亲自探究事物本身获取信息。
★3、计算机是以文件的扩展名来判断其类型的,其图标也会因文件类型的不同而各不相同。
★4、信息的存储格式文字.txt .doc .pdf .htm/.html图形图像.jpg .bmp .gif动画.gif .swf声音.wav .mp3 .mid .wma视频.mpg .rm/.rmvb .mov .avi .wmv5、网络信息检索的主要方法:①直接访问相关信息网页;②使用搜索引擎;③直接访问在线数据库;④使用BBS论坛。