信息论与编码
- 格式:docx
- 大小:214.00 KB
- 文档页数:8
计算机科学中的信息论与编码信息论与编码是计算机科学中的重要理论,它们对于信息的传输、存储和处理起着至关重要的作用。
信息论主要研究信息的度量和传输的可靠性,而编码则是将信息以有效的方式表示和传递的技术手段。
本文将介绍信息论和编码在计算机科学中的应用,并探讨其对现代计算机技术的影响。
一、信息论的基本概念信息论是由香农在1948年提出的一门学科。
它通过熵和信息量的概念,量化了信息的度量和传输的质量。
熵是信息理论中的关键概念,用来表示一个随机变量的不确定性和信息量的平均值。
计算机系统中的信息可用二进制表示,因此信息的度量单位是比特(bit)。
二、信息论的应用1. 数据压缩信息论的一个重要应用是数据压缩。
利用信息论的原理,可以设计出高效的压缩算法,将大量的数据压缩成较小的文件。
常见的数据压缩算法有哈夫曼编码、LZ编码等。
这些算法通过统计字符或者字符组合出现的频率,将频率高的字符用较短的编码表示,从而实现数据的有损或无损压缩。
2. 信道编码信道编码是信息论的另一个重要应用领域。
在数据传输过程中,由于信道噪声等原因,数据容易出现误码。
为了提高传输的可靠性,可以使用信道编码技术。
常见的信道编码方案有纠错码和调制码,它们可以通过增加冗余信息或者改变信号的特性,提高传输系统的容错能力。
三、编码的基本原理编码是将信息转换成特定的符号或者编码字,以便能够有效地表示和传输。
在计算机科学中,常见的编码方式有ASCII码、Unicode和UTF-8等。
ASCII码是一种最早的字符编码方式,它将每个字符映射为一个7位的二进制数。
Unicode是一种全球通用的字符编码标准,它使用16位或32位的二进制数表示字符。
UTF-8则是Unicode的一种变体,它采用可变长度的编码方式,可以表示任意字符。
四、编码的应用1. 信息存储编码在信息存储中起着关键作用。
计算机系统中的文件和数据都需要以某种方式进行编码才能存储和读取。
不同的数据类型使用不同的编码方式,例如图片可以使用JPEG、PNG等图像编码格式,音频可以使用MP3、AAC等音频编码格式。
信息论与编码
信息论是一门研究信息传输、存储和处理的学科。
它的基本概念是由克劳德·香农于20世纪40年代提出的。
信息论涉及了许多重要的概念和原理,其中之一是编码。
编码是将信息从一种形式转换为另一种形式的过程。
在信息论中,主要有两种编码方式:源编码和信道编码。
1. 源编码(Source Coding):源编码是将信息源中的符号序列转换为较为紧凑的编码序列的过程。
它的目标是减少信息的冗余度,实现信息的高效表示和传输。
著名的源编码算法有霍夫曼编码和算术编码等。
2. 信道编码(Channel Coding):信道编码是为了提高信息在信道传输过程中的可靠性而进行的编码处理。
信道编码可以通过添加冗余信息来使原始信息转换为冗余编码序列,以增加错误检测和纠正的能力。
常见的信道编码算法有海明码、卷积码和LDPC码等。
编码在通信中起着重要的作用,它可以实现对信息的压缩、保护和传输的控制。
通过合理地选择编码方式和算法,可以在信息传输过程中提高传输效率和可靠性。
信息论和编码理论为信息传输和存储领域的发展提供了理论基础和数学工具,广泛应用于通信系统、数据压缩、加密解密等领域。
信息论与编码基本概念信息论是一门研究信息传输和处理的学科,而编码则是信息论的重要组成部分。
信息论的基本概念包括信息熵、条件熵、联合熵以及信道容量等。
本文将介绍这些基本概念,并探讨它们在信息处理中的应用。
1. 信息熵信息熵是信息论中的一个重要概念,用来度量信息的不确定性或者信息的平均信息量。
对于一个离散随机变量X,其熵定义为:H(X) = -Σp(x)log2(p(x))其中, p(x) 是随机变量X取值为x的概率。
信息熵越大,代表信息的不确定性越高。
2. 条件熵条件熵是在给定了某些条件的情况下,随机变量的熵。
对于两个随机变量X和Y,条件熵H(X|Y)表示在已知Y的情况下,随机变量X的不确定性。
条件熵可以计算为:H(X|Y) = -ΣΣp(x,y)log2(p(x|y))其中,p(x,y) 是随机变量X和Y的联合分布。
3. 联合熵联合熵是指两个随机变量的联合分布的熵。
对于X和Y两个随机变量,其联合熵可以计算为:H(X,Y)= -ΣΣp(x,y)log2(p(x,y))4. 信道容量信道容量是指在信道传输过程中,能够传输的最大信息量。
信道容量由香农定理给出,其计算公式为:C = B*log2(1+S/N)其中,B是信道的带宽,S是信号的平均功率,N是噪声的功率。
信道容量取决于信号与噪声之比,当信号强于噪声时,信道容量较大。
信息论的基本概念与编码密切相关。
编码是指将输入的信息转换为一系列编码符号,以便在信道中传输或储存。
编码可以通过增加编码的冗余性来提高信息的可靠性,并且可以通过编码方式的设计来减少传输的误码率。
常见的编码方式包括香农-离散傅里叶变换编码、霍夫曼编码、矩阵幂搅拌编码等。
这些编码方式根据不同的需求和约束条件,来实现信息的高效传输与存储。
总结:信息论与编码是信息科学中重要的领域,它研究信息的度量、传输与处理。
信息熵、条件熵、联合熵和信道容量是信息理论的基本概念,用于度量信息的不确定性、传输的可靠性等。
数学中的信息论与编码理论在没有信息论和编码理论的帮助下,我们现代社会的通信系统几乎无法存在。
信息论和编码理论是数学中一个重要的分支,它们的发展不仅深刻影响了通信技术的进步,也在其他领域起到了重要的作用。
本文将探讨数学中的信息论与编码理论的基本概念和应用。
一、信息论信息论是由美国数学家克劳德·香农在20世纪40年代提出的一门学科。
它的研究对象是信息,旨在衡量信息的传输效率和极限。
那么,什么是信息?信息是我们从一个消息中获得的知识或内容。
在信息论中,信息量的单位被称为“比特”(bit),它表示信息的最基本单位。
例如,当我们投掷一枚公平的硬币,出现正面的概率为50%,我们可以用1比特来表示这个消息,因为它提供了一个二进制的选择(正面或反面)。
在信息论中,还有一个重要的概念是“信息熵”。
信息熵用来衡量一个随机变量的不确定性。
一个有序的事件具有较低的信息熵,而一个随机的事件具有较高的信息熵。
例如,当我们已知一个硬币是公平的时候,投掷获得的信息熵最高,因为我们无法预测结果。
二、编码理论编码理论是信息论的一个重要组成部分。
它研究如何将信息转化为机器能够识别和处理的形式。
编码理论可以分为源编码和信道编码两个方面。
1. 源编码源编码是将源数据(比如文本、图像、声音等)进行压缩和表示的过程。
它的目标是将数据表示为更紧凑的形式,以便于存储和传输。
最著名的源编码算法之一是赫夫曼编码,它利用不同符号出现的频率进行编码,将出现频率较高的符号用较短的编码表示,从而实现数据的压缩。
2. 信道编码信道编码是为了在噪声干扰的信道中可靠地传输信息而设计的编码方法。
它通过引入冗余来纠正或检测传输过程中的错误。
最常见的信道编码方法是奇偶校验码和循环冗余检验码(CRC)。
这些编码方法能够检测和校正一定数量的错误,从而提高传输的可靠性。
三、信息论与编码理论的应用信息论和编码理论不仅在通信领域中发挥着重要作用,也在其他领域有广泛的应用。
信息论与编码一、引言信息论与编码是研究信息的传输、压缩和保护的领域。
本文将介绍信息论与编码的基本概念和原理,并探讨其在通信领域的应用。
二、信息论的基本概念1. 信息的定义与度量信息是对不确定性的减少所带来的好处,可以用来描述一个事件的惊喜程度。
信息量的度量可以通过信息熵来体现,信息熵越大,表示所获得的信息量越大。
2. 信道与信源信道是信息传输的通道,信源是产生信息的源头。
信息传输涉及到信源的编码和信道的传输,目标是在传输过程中尽可能减少信息丢失和失真。
三、编码的基本原理1. 码长与编码效率码长是指编码后的代码长度,编码效率是指单位信息量所对应的平均码长。
编码效率越高,表示编码所占用的空间越小。
2. 哈夫曼编码哈夫曼编码是一种基于概率的编码方法,根据字符出现的概率来确定对应的编码,出现频率高的字符使用短码,出现频率低的字符使用长码。
3. 香农编码香农编码是一种理想编码方式,它可以达到信息论的极限,即编码长度无限接近于信息熵。
香农编码需要知道信源的概率分布,才能进行编码。
四、信息论与通信的应用1. 信道编码与纠错为了减少信道传输中的误码率,可以通过引入编码和纠错码来提高传输的可靠性。
常用的编码方法包括奇偶校验码、循环冗余校验码等。
2. 数据压缩数据压缩是通过编码方法将冗余信息去除,以减小存储和传输的开销。
常见的数据压缩算法有LZW算法、哈夫曼编码等。
3. 密码学与信息安全信息论与密码学有着密不可分的关系,通过信息论的方法可以研究密码系统的安全性和抗攻击能力。
常用的加密算法包括对称加密算法和公钥加密算法。
五、总结信息论与编码是研究信息传输与保护的重要领域,它的应用涉及到通信、数据压缩和信息安全等多个领域。
通过合理的编码和解码方法,可以实现高效可靠的信息传输和存储。
信息论与编码的研究对于推动通信技术的发展和提高信息安全性具有重要意义。
答案与解析略(本文共计561字,仅供参考)。
信息论与编码第⼀章1、信息,信号,消息的区别信息:是事物运动状态或存在⽅式的不确定性的描述消息是信息的载体,信号是消息的运载⼯具。
2、1948年以“通信的数学理论”(A mathematical theory of communication )为题公开发表,标志着信息论的正式诞⽣。
信息论创始⼈:C.E.Shannon(⾹农)第⼆章1、⾃信息量:⼀个随机事件发⽣某⼀结果后所带来的信息量称为⾃信息量,简称⾃信息。
单位:⽐特(2为底)、奈特、笛特(哈特)2、⾃信息量的性质(1)是⾮负值(2) =1时, =0, =1说明该事件是必然事件。
(3) =0时, = , =0说明该事件是不可能事件。
(4)是的单调递减函数。
3、信源熵:各离散消息⾃信息量的数学期望,即信源的平均信息量。
)(log )(])(1[log )]([)( 212i ni i i i a p a p a p E a I E X H ∑=-===单位:⽐特/符号。
(底数不同,单位不同)信源的信息熵;⾹农熵;⽆条件熵;熵函数;熵。
4、信源熵与信息量的⽐较(书14页例2.2.2)()log () 2.1.3 i i I a p a =-()5、信源熵的意义(含义):(1)信源熵H(X)表⽰信源输出后,离散消息所提供的平均信息量。
(2)信源熵H(X)表⽰信源输出前,信源的平均不确定度。
(3)信源熵H(X)反映了变量X 的随机性。
6、条件熵:(书15页例2.2.3) 7、联合熵:8、信源熵,条件熵,联合熵三者之间的关系:H(XY)= H(X)+H(Y/X) H(XY)= H(Y)+H(X/Y)条件熵⼩于⽆条件熵,H(Y/X)≤H(Y)。
当且仅当y 和x 相互独⽴p(y/x)=p(y),H(Y/X)=H(Y)。
两个条件下的条件熵⼩于⼀个条件下的条件熵H(Z/X,Y)≤H(Z/Y)。
当且仅当p(z/x,y)=p(z/y)时取等号。
联合熵⼩于信源熵之和, H(YX)≤H(Y)+H(X)当两个集合相互独⽴时得联合熵的最⼤值 H(XY)max =H(X)+H(Y) 9、信息熵的基本性质:(1)⾮负性;(2)确定性;(3)对称性;(4)扩展性(5)可加性 ( H(XY) = H(X)+ H(Y) X 和Y 独⽴ H (XY )=H (X )+ H (Y/X )H (XY )=H (Y )+ H (X/Y ) )(6)(重点)极值性(最⼤离散熵定理):信源中包含n 个不同离散消息时,信源熵H(X)有当且仅当X 中各个消息出现的概率全相等时,上式取等号。
信息论与编码实验报告一、实验目的信息论与编码是一门涉及信息的度量、传输和处理的学科,通过实验,旨在深入理解信息论的基本概念和编码原理,掌握常见的编码方法及其性能评估,提高对信息处理和通信系统的分析与设计能力。
二、实验原理(一)信息论基础信息熵是信息论中用于度量信息量的重要概念。
对于一个离散随机变量 X,其概率分布为 P(X) ={p(x1), p(x2),, p(xn)},则信息熵H(X) 的定义为:H(X) =∑p(xi)log2(p(xi))。
(二)编码原理1、无失真信源编码:通过去除信源中的冗余信息,实现用尽可能少的比特数来表示信源符号,常见的方法有香农编码、哈夫曼编码等。
2、有噪信道编码:为了提高信息在有噪声信道中传输的可靠性,通过添加冗余信息进行纠错编码,如线性分组码、卷积码等。
三、实验内容及步骤(一)信息熵的计算1、生成一个离散信源,例如信源符号集为{A, B, C, D},对应的概率分布为{02, 03, 01, 04}。
2、根据信息熵的定义,使用编程语言计算该信源的信息熵。
(二)香农编码1、按照香农编码的步骤,首先计算信源符号的概率,并根据概率计算每个符号的编码长度。
2、确定编码值,生成香农编码表。
(三)哈夫曼编码1、构建哈夫曼树,根据信源符号的概率确定树的结构。
2、为每个信源符号分配编码,生成哈夫曼编码表。
(四)线性分组码1、选择一种线性分组码,如(7, 4)汉明码。
2、生成编码矩阵,对输入信息进行编码。
3、在接收端进行纠错译码。
四、实验结果与分析(一)信息熵计算结果对于上述生成的离散信源,计算得到的信息熵约为 184 比特/符号。
这表明该信源存在一定的不确定性,需要一定的信息量来准确描述。
(二)香农编码结果香农编码表如下:|信源符号|概率|编码长度|编码值|||||||A|02|232|00||B|03|174|10||C|01|332|110||D|04|132|111|香农编码的平均码长较长,编码效率相对较低。
信息论与编码实验报告一、实验目的1.了解信息论与编码的基本概念和原理。
2.学习如何通过信息论与编码方法实现对数据的压缩和传输。
3.掌握信息论与编码实验的实验方法和实验技能。
4.提高实验设计、数据分析和报告撰写的能力。
二、实验内容1.通过对输入信源进行编码,实现对数据的压缩。
2. 比较不同编码方法的压缩效果,包括Shannon-Fano编码和霍夫曼编码。
3.通过传输信道对编码后的数据进行解码,还原原始信源。
4.分析并比较不同编码方法的传输效果,包括码率和传输质量。
三、实验原理1.信息论:熵是信息论中衡量信源不确定性的指标,熵越小表示信源的可预测性越高,在编码过程中可以压缩数据。
2. 编码方法:Shannon-Fano编码通过分治的方法将输入信源划分为不同的子集,分别进行编码;霍夫曼编码则通过构建最佳二叉树的方式,将较常出现的信源符号编码为较短的二进制码,较少出现的信源符号编码为较长的二进制码。
3.传输信道:信道可能存在误码和噪声,通过差错控制编码可以在一定程度上保障传输数据的正确性和完整性。
四、实验步骤1. 对给定的输入信源进行Shannon-Fano编码和霍夫曼编码。
2.计算编码后的码率,分析不同编码方法的压缩效果。
3.将编码后的数据传输到信道,模拟信道中的误码和噪声。
4.对传输后的数据进行解码,还原原始信源。
5.比较不同编码方法的传输质量,计算误码率和信噪比。
五、实验结果与分析1. 编码结果:通过对输入信源进行编码,得到了Shannon-Fano编码和霍夫曼编码的码表。
2.压缩效果:计算了不同编码方法的码率,比较了压缩效果。
3.传输结果:模拟信道传输后的数据,对数据进行解码,还原原始信源。
4.传输质量:计算了误码率和信噪比,分析了不同编码方法的传输质量。
六、实验总结通过本次实验,我深刻理解了信息论与编码的基本概念和原理,并掌握了信息论与编码实验的实验方法和实验技能。
在实验过程中,我遇到了一些困难,比如对编码方法的理解和实验数据的处理。
第一章绪论(第一讲)(2课时)主要内容:(1)教学目标(2)教学计划(3)参考书(4)考试问题(5)信息论的基本概念(6)信息论发展简史和现状(7)通信系统的基本模型重点:通信系统的基本模型难点:通信系统的基本模型特别提示:运用说明:本堂课作为整本书的开篇,要交待清楚课程开设的目的,研究的内容,对学习的要求;在讲解过程中要注意结合一些具体的应用实例,避免空洞地叙述,以此激发同学的学习兴趣,适当地加入课堂提问,加强同学的学习主动性。
信息论与编码(Informatic s & Coding)开场白教学目标:本课程主要讲解香农信息论的基本理论、基本概念和基本方法,以及编码的理论和实现原理。
介绍信息的统计度量,离散信源,离散信道和信道容量;然后介绍无失真信源编码、有噪信道编码,以及限失真信源编码等,然后介绍信道编码理论,最后也简单介绍了密码学的一些知识。
教学重点:信息度量、无失真信源编码、限失真信源编码、信道编码的基本理论及实现原理。
教学计划:信息论:约20学时信道编码:约19学时*密码学:约8学时参考书:1.信息论与编码,曹雪虹张宗橙编,北京邮电大学出版社,20012.信息论—基础理论与应用,傅祖芸编著,电子工业出版社,20013.信息理论与编码,姜丹钱玉美编著4.信息论与编码,吴伯修归绍升祝宗泰俞槐铨编著,1987考试问题:第一章绪论信息论的基本概念信息论发展简史和现状通信系统的基本模型§1.1 信息论的基本概念信息论是一门应用近代数理统计方法来研究信息的传输和处理的科学。
在涉及这门课程的具体内容之前,很有必要在引言中,首先放宽视野,从一般意义上描述、阐明信息的基本含意。
然后,再把眼光收缩到信息论的特定的研究范围中,指明信息论的假设前提,和解决问题的基本思路。
这样,就有可能帮助读者,在学习、研究这门课程之前,建立起一个正确的思维方式,有一个正确的思路,以便深刻理解、准确把握以下各章节的具体内容。
第一章1、信息,信号,消息的区别信息:是事物运动状态或存在方式的不确定性的描述 消息是信息的载体,信号是消息的运载工具。
2、1948年以“通信的数学理论”(A mathematical theory of communication )为题公开发表,标志着信息论的正式诞生。
信息论创始人:C.E.Shannon(香农)第二章1、自信息量:一个随机事件发生某一结果后所带来的信息量称为自信息量,简称自信息。
单位:比特(2为底)、奈特、笛特(哈特)2、自信息量的性质 (1) 是非负值(2) =1时, =0, =1说明该事件是必然事件。
(3) =0时, = , =0说明该事件是不可能事件。
(4) 是 的单调递减函数。
3、信源熵:各离散消息自信息量的数学期望,即信源的平均信息量。
)(log )(])(1[log )]([)( 212i ni i i i a p a p a p E a I E X H ∑=-===单位:比特/符号。
(底数不同,单位不同) 信源的信息熵;香农熵;无条件熵;熵函数;熵。
4、信源熵与信息量的比较(书14页例2.2.2)()log () 2.1.3 i i I a p a =-()5、信源熵的意义(含义):(1)信源熵H(X)表示信源输出后,离散消息所提供的平均信息量。
(2)信源熵H(X)表示信源输出前,信源的平均不确定度。
(3)信源熵H(X)反映了变量X 的随机性。
6、条件熵:(书15页 例2.2.3) 7、联合熵:8、信源熵,条件熵,联合熵三者之间的关系:H(XY)= H(X)+H(Y/X) H(XY)= H(Y)+H(X/Y)条件熵小于无条件熵,H(Y/X)≤H(Y)。
当且仅当y 和x 相互独立p(y/x)=p(y),H(Y/X)=H(Y)。
两个条件下的条件熵小于一个条件下的条件熵H(Z/X,Y)≤H(Z/Y)。
当且仅当p(z/x,y)=p(z/y)时取等号。
联合熵小于信源熵之和, H(YX)≤H(Y)+H(X)当两个集合相互独立时得联合熵的最大值 H(XY)max =H(X)+H(Y) 9、信息熵的基本性质:(1)非负性;(2)确定性;(3)对称性;(4)扩展性 (5)可加性 ( H(XY) = H(X)+ H(Y) X 和Y 独立 H (XY )=H (X )+ H (Y/X )H (XY )=H (Y )+ H (X/Y ) )(6)(重点)极值性(最大离散熵定理):信源中包含n 个不同离散消息时,信源熵H(X)有当且仅当X 中各个消息出现的概率全相等时,上式取等号。
(7)条件熵不大于无条件熵;(8)上凸性10、多符号的离散无记忆信源就是把单符号进行N 次扩展, 扩展N 次后,每个符号的宽度为N11(|)[(|)]()(|)nmi j i j i j i j H X Y E I a b p a b I a b ====∑∑11()()()nmi j i j i j H XY p a b I a b ===∑∑11()log () (2.2.10)n mi j i j i j p a b p a b ===-∑∑2()log (2.2.12)H X n ≤12()(,,,)N i i i i p p a a a α=()()()log ()NN i i XH X H X p p αα==-∑序列信息的熵为)()(X NH X H N =(书22页 例2.3.1 )11、信源的冗余度 00011H H H H H ∞∞-=-=-=ηξ 极限熵 实际上是一个条件熵对离散信源,信源符号等概率分布时熵最大,其平均自信息量记为: H 0=log q 由于信源符号间的依赖关系使信源的熵减小,使下式成立:∞+≥≥≥≥≥≥=H H H H H q m ......log 1210信源符号之间依赖关系越强,每个符导提供的平均信息量越小。
为此,引入信源的冗余度来衡量信源的相关程度(有时也称为多余度)。
课后习题: 2.6、无条件概率、条件概率、联合概率之间的关系(11页)第三章1、通信系统的模型:(33页 图3.1.1)2、信源编码的目的是提高有效性,信道编码的目的是提高可靠性3、信源编码的分类:(第三个、第四个比较重要) (1) 二元码和r 元码(2) 基本源编码和N 次扩展源编码 (3) 无失真编码 和有失真编码数学上称为非奇异码和奇异码,若信源符号和码字是一一对应的,则该码为非奇异码。
反之为奇异码。
(4)惟一可译码和非惟一可译码唯一可译和非唯一可译:若任意一串有限长的码符号序列只能被惟一地译成所对应的信源符号序列,则此码称为惟一可译码(或称单义可译码)。
否则就称为非惟一可译码或非单义可译码。
(5) 定长码和变长码4、唯一可译码可分为即时码和延时码⎪⎭⎫ ⎝⎛=-∞→∞121lim N NN X XX X H H即时码:如果一个码的任何一个码字都不是其他码字的前缀,则称该码为前缀码、异前置码、异字头码、逗点码,也称为即时码 克拉夫特不等式r 元长度为li 的异前置码存在的充要条件是Kraft 不等式是惟一可译码存在的充要条件,必要性表现在如果码是惟一可译码,则必定满足Kraft 不等式;充分性表现在如果满足Kraft 不等式,则这种码长的惟一可译码一定存在,但并不表示所有满足Kraft 不等式的码一定是惟一可译码。
因此,克拉夫特不等式是惟一可译码存在的充要条件,而不是惟一可译码的充要条件。
如果一个码是即时码,它一定满足克拉夫特不等式 如果一个码满足这个不等式,它不一定是即时码 奇异码与唯一可译之间的关系:奇异码一定非唯一可译唯一可译码与非奇异之间的关系:唯一可译码一定是非奇异码,但非奇异码不一定唯一可译5、香农第一定理:无失真变长信源编码定理,即香农第一定理。
11i nl i r -=≤∑6、香农编码(书38页)7、费诺编码(书39页)8、赫夫曼编码(书40页)9、这三种码中编码方法唯一的是:香农码费诺码是最理想化的编码第四章1、互信息量关于它的定义有三个:定义1:我们将从b j 中获取有关a i 的信息量称为互信息量定义2:将互信息表达式展开得:)(log )(log );( j i i j i b a p a p b a I +-= 同样道理,我们可以定义a i 对b j 的互信息量为)( )()()(log );( i j j j i j i j a b I b I b p a b p a b I -==(2.1.9) ),,2,1;,,2,1( m j n i ==定义3通信后流经信道的信息量,等于通信前后不定度的差)(1log )()(1log j i j i b a p b p a p -=),,2,1;,,2,1( )()()(logm j n i b p a p b a p j i j i ===()(;)log ()i j i ji p a b I a b p a = ()()i i j I a I a =-(;)()()i j i j i j I a b I a b I a b '''=-2、互信息量的性质: (1)对称性(2)当X 和Y 相互独立时,互信息为0 (3)互信息量可为正值或负值3、平均互信息量(重点)平均互信息量的定义(三个)及其物理意义(53页) 关于式子的证明过程(式子之间的转换,很重要) 4、平均互信息的性质: (1)非负性 (2)极值性(3)对称性(4)凸函数性(最重要)定理1 对于固定的信道,平均互信息I(X;Y)是信源概率分布p(x)的上凸函数 定理2 对于固定的信源,平均互信息I(X;Y)信道传递概率分布p(y|x)的下凸函数 (5)数据处理定理5、各种熵之间的关系(62页 表4.1.1)6、信道容量:信道中最大的传输速率,C ,单位:比特/信道符号单位时间的信道容量,比特/秒信道容量的计算7、怎么样去判断信道: 第一类:离散无噪信道(;)(;)i j j i I a b I b a =(;)()I X Y H X ≤(;)()I Y X H Y ≤()()1max max (;)p ai p ai C R I X Y t ==[][]()()()max (;)max ()() max ()()i i i p a p a p a C I X Y H X H X H Y H Y X ==-=-(1) 一一对应的无噪信道X 、Y 一一对应,此时H(X/Y)=0,H(Y/X)=0,=log n (p(ai)=1/n 即等概)(2)具有扩展功能的无噪信道一个输入对应多个输出,此时,H(X/Y)=0,H(Y/X) 0,且 H(X) <H(Y)。
所以,C =H(X) = log n (p(ai)=1/n 即等概)(3)具有归并性的无噪信道多个输入变成一个输出,H(X/Y) ≠ 0,H(Y/X) = 0, C =H(Y) = log m第二类:对称信道:如果信道转移矩阵满足下列性质: (1) 每行都是第一行的某种置换; (2) 每列都是第一列的某种置换。
则称该信道为对称信道。
(1)对称信道的信道容量:(2) 准对称信道:如果信道转移矩阵按列可以划分为几个互不相交的对称信道的子集,则称该信道为准对称信道。
准对称信道的信道容量(重点):比特/符号 (书69页 例4.2.1)第五章1、线性分组码差错控制的方式:向前纠错方式(FEC )、反馈重传方式(ARQ )、混合纠错方式(HEC )。
2、香农第二定理:若有一离散无记忆平稳信道,其容量为C ,输入序列长度为L ,只要待传送的信息率R<C ,总可以找到一种编码,当L 足够长时,译码差错概率P e <ε, ε为任意大于零的正数。
反之,当R>C 时,任何编码的P e 必大于零;当L → 时,P e →1。
3、线性分组码:通过预定的线性运算将长为 k 位的信息码组变换成 n 长的码字 ( n >k )。
由 2k 个信息码组所编成的 2k 个码字集合,称为线性分组码。
码矢:一个 n 长的码字可以用矢量来表示C = (C n -1,C n -2,…,C 1,C 0 )所以码字又称为码矢。
12()max (,)log (,,...,)i m p a C I X Y m H q q q ==-2(1)log(1)(1)log 11C q q q q q=--+-=--( n , k ) 线性码:信息位长为 k ,码长为 n 的线性码编码效率/编码速率/码率:R =k /n 。
它说明了信道的利用效率,R 是衡量码性能的一个重要参数。
4、线性分组码的特点(性质):① 在码集中存在全0码字 ② 满足封闭性定理:线性分组码的最小距离等于最小非零码字重量。