信息论与编码复习总结
- 格式:docx
- 大小:427.94 KB
- 文档页数:7
“信息论与编码”总复习1.消息、信号、信息的含义、定义及区别。
信息是指各个事物运动的状态及状态变化的方式。
消息是指包含信息的语言,文字和图像等。
信号是消息的物理体现。
消息是信息的数学载体、信号是信息的物理载体信号:具体的、物理的消息:具体的、非物理的信息:非具体的、非物理的同一信息,可以采用不同形式的物理量来载荷,也可以采用不同的数学描述方式。
同样,同一类型信号或消息也可以代表不同内容的信息2.信息的特征与分类。
1接收者在收到信息之前,对其内容是未知的,所以信息是新知识,新内容;2信息是能使认识主体对某一事物的未知性或不确定性减少的有用知识;3信息可以产生,也可以消失,同时信息可以被携带,被存储及处理;4信息是可以量度的,信息量有多少的差别。
3.狭义信息论、广义信息论、一般信息论研究的领域。
狭义信息论:信息论是在信息可以量度的基础上,对如何有效,可靠地传递信息进行研究的科学。
它涉及信息量度,信息特性,信息传输速率,信道容量,干扰对信息传输的影响等方面的知识。
广义信息论:信息是物质的普遍属性,所谓物质系统的信息是指它所属的物理系统在同一切其他物质系统全面相互作用(或联系)过程中,以质、能和波动的形式所呈现的结构、状态和历史。
包含通信的全部统计问题的研究,除了香农信息论之外,还包括信号设计,噪声理论,信号的检测与估值等。
概率信息:信息表征信源的不定度,但它不等同于不定度,而是为了消除一定的不定度必须获得与此不定度相等的信息量4.信息论的起源、历史与发展。
⏹1924年,Nyquist提出信息传输理论;⏹1928年,Hartly提出信息量关系;⏹1932年,Morse发明电报编码;⏹1946年,柯切尼柯夫提出信号检测理论;⏹1948年,Shannon提出信息论,“通信中的数学理论”—现代信息论的开创性的权威论文,为信息论的创立作出了独特的贡献。
5.通信系统的物理模型(主要框图),各单元(方框)的主要功能及要解决的主要问题。
信息论与编码知识点总结信息论与编码随着计算机技术的发展,人类对信息的传输、存储、处理、交换和检索等的研究已经形成一门独立的学科,这门学科叫做信息论与编码。
我们来看一下信息论与编码知识点总结。
二、决定编码方式的三个主要因素1。
信源—信息的源头。
对于任何信息而言,它所包含的信息都是由原始信号的某些特征决定的。
2。
信道—信息的载体。
不同的信息必须有不同的载体。
3。
编码—信息的传递。
为了便于信息在信道中的传输和解码,就需要对信息进行编码。
三、信源编码(上) 1。
模拟信号编码这种编码方式是将信息序列变换为电信号序列的过程,它能以较小的代价完成信息传送的功能。
如录音机,就是一种典型的模拟信号编码。
2。
数字信号编码由0和1表示的数字信号叫做数字信号。
在现实生活中,数字信号处处可见,像电话号码、门牌号码、邮政编码等都是数字信号。
例如电话号码,如果它用“ 11111”作为开头,那么这串数字就叫做“ 11”位的二进制数字信号。
数字信号的基本元素是0和1,它们组成二进制数,其中每一个数码都是由两个或更多的比特构成的。
例如电话号码就是十一位的二进制数。
我们平常使用的编码方法有: A、首部-----表明发送者的一些特征,如发送者的单位、地址、性别、职务等等B、信源-----表明信息要发送的内容C、信道-----信息要通过的媒介D、信宿-----最后表明接受者的一些特征E、加密码----对信息进行加密保护F、均匀量化----对信息进行量化G、单边带----信号只在一边带宽被传输H、调制----将信息调制到信号载波的某一特定频率上I、检错----信息流中若发生差错,则输出重发请求消息,比如表达公式时,可写成“ H=k+m-p+x”其中H=“ X+m-P-k”+“ y+z-p-x”+“ 0-w-k-x”,这样通过不断积累,就会发现:用无限长字符可以表达任意长度的字符串;用不可再分割的字符串表达字符串,且各字符之间没有空格等等,这些都表明用无限长字符串表达字符串具有很大的优越性,它的许多优点是有限长字符串不能取代的。
信息论与编码原理期末大总结信息论与编码原理是一门研究信息传输和存储的学科,它的研究对象是信息的度量、编码和解码,是现代通信和计算机科学的重要基础理论之一、本学期学习信息论与编码原理课程,我对信息的压缩、编码和传输有了更深入的了解。
首先,信息的度量是信息论与编码原理的核心概念之一、通过信息的度量,我们可以衡量信息的多少和质量。
常用的度量方法是信息熵,它描述的是一个随机变量的不确定度。
熵越大,表示不确定度越高,信息量越大。
通过计算信息熵,我们可以对信息进行评估和优化,为信息的编码和传输提供指导。
其次,信息的压缩是信息论与编码原理的重要研究方向之一、在信息论中,有两种常用的压缩方法:有损压缩和无损压缩。
有损压缩是通过舍弃一些信息的方式来减少数据的大小,例如在图像和音频压缩中,我们可以通过减少图像的像素点或者音频的采样率来实现压缩。
无损压缩则是通过编码的方式来减少数据的大小,例如哈夫曼编码和阿贝尔编码等。
了解了不同的压缩方法,可以帮助我们在实际应用中选择合适的压缩算法。
再次,编码是信息论与编码原理的重要概念之一、编码是将信息转换为特定的符号序列的过程,它是实现信息传输和存储的关键技术。
在编码中,最常用的编码方法是短编码和长编码。
短编码通过将常用的符号映射到短的编码序列,来实现信息的高效传输。
例如ASCII编码就是一种常用的短编码方法。
相反,长编码通过将每个符号映射到相对较长的编码序列,来实现无歧义的解码。
例如哈夫曼编码就是一种常用的无损长编码方法。
最后,信道编码是信息论与编码原理中重要的研究方向之一、在通信中,信号会受到不同的干扰,如噪声和失真等。
为了减少信号传输时的误码率,可以使用信道编码来提升信号的可靠性。
常用的信道编码方法有奇偶校验码、海明码和卷积码等。
信道编码通过在信号中引入冗余信息,以检测和纠正信道传输中的错误,提高了通信的可靠性和稳定性。
总结起来,信息论与编码原理是研究信息传输和存储的重要学科,通过学习这门课程,我们可以了解信息的度量、压缩、编码和传输等基本原理和方法。
1、通信系统模型的组成,及各部分的功能。
答:信源,产生消息的源,消息可以是文字,语言,图像。
可以离散,可以连续。
随机发生。
编码器,信源编码器:对信源输出进行变换(消去冗余,压缩),提高信息传输的有效性。
信道编码器:对信源编码输出变换(加入冗余),提高抗干扰能力,提高信息传输的可靠性。
调制器:将信道编码输出变成适合信道传输的方式信道,信号从发端传到收端的介质干扰源,系统各部分引入的干扰,包括衰落,多径,码间干扰,非线性失真,加性噪声译码器,编码器的逆变换信宿,信息的接收者2、消息,信号,信息三者之间的关系答:关系:信息---可以认为是具体的物理信号、数学描述的消息的内涵,即信号具体载荷的内容、消息描述的含义。
信号---则是抽象信息在物理层表达的外延;消息---则是抽象信息在数学层表达的外延。
3、信源的分类答:分类:单消息(符号)信源:离散信源;连续变量信源。
平稳信源。
无/有记忆信源。
马尔可夫信源。
随机波形信源。
离散信源:信源可能输出的消息数是有限的或可数的,而且每次只输出其中一个消息。
可以用一维离散型随机变量X来描述这个信源输出的消息。
这个随机变量X的样本空间就是符号集A;而X的概率分布就是各消息出现的先验概率,信源的概率空间必定是一个完备集。
连续变量信源:数据取值是连续的,但又是随机的。
可用一维的连续型随机变量X来描述这些消息。
这种信源称为连续信源,其数学模型是连续型的概率空间:4、自信息的含义:当事件ai发生以前,表示事件ai发生的不确定性,当事件ai发生以后表示事件ai所含有(所提供)的信息量。
5、互信息含义:信源发送消息ai,而由于干扰,在接收端收到的为消息bj ,此时获得的信息量——互信息,即最初的不确定性减去尚存在的不确定性。
6、离散单符号信源熵的物理含义:熵是随机变量的随机性的描述。
熵是信源输出消息前随机变量平均不确定性的描述。
信源熵H(X)是表示信源输出后每个消息/符号所提供的平均信息量。
学习信息论与编码心得范文三篇学习信息论与编码心得范文三篇学习信息论与编码心得1作为就业培训,项目的好坏对培训质量的影响十分大,常常是决定性的作用。
关于在学习java软件开发时练习项目的总结,简单总结为以下几点:1、项目一定要全新的项目,不能是以前做过的2、项目一定要企业真实项目,不能是精简以后的,不能脱离实际应用系统3、在开发时要和企业的开发保持一致4、在做项目的时候不应该有参考代码长话短说就是以上几点,如果你想要更多的了解,可以继续往后看。
一:项目的地位因为参加就业培训的学员很多都是有一定的计算机基础,大部分都具备一定的编程基础,尤其是在校或者是刚毕业的学生,多少都有一些基础。
他们欠缺的主要是两点:(1)不能全面系统的、深入的掌握某种技术,也就是会的挺多,但都是皮毛,不能满足就业的需要。
(2)没有任何实际的开发经验,完全是想象中学习,考试还行,一到实际开发和应用就歇菜了。
解决的方法就是通过项目练习,对所学知识进行深化,然后通过项目来获取实际开发的经验,从而弥补这些不足,尽快达到企业的实际要求。
二:如何选择项目项目既然那么重要,肯定不能随随便便找项目,那么究竟如何来选择呢?根据java的研究和实践经验总结,选择项目的时候要注意以下方面:1:项目不能太大,也不能太小这个要根据项目练习的阶段,练习的时间,练习的目标来判断。
不能太大,太大了做不完,也不能太小,太小了没有意义,达不到练习的目的。
2:项目不能脱离实际应用系统项目应该是实际的系统,或者是实际系统的简化和抽象,不能够是没有实战意义的教学性或者是纯练习性的项目。
因为培训的时间有限,必须让学员尽快地融入到实际项目的开发当中去。
任何人接受和掌握一个东西都需要时间去适应,需要重复几次才能够真正掌握,所以每个项目都必须跟实际应用挂钩。
3:项目应能覆盖所学的主要知识点学以致用,学完的知识点需要到应用中使用,才能够真正理解和掌握,再说了,软件开发是一个动手能力要求很高的行业,什么算会了,那就是能够做出来,写出代码来,把问题解决了,你就算会了。
信息论与编码1. 通信系统模型信源—信源编码—加密—信道编码—信道—信道解码—解密—信源解码—信宿 | | |(加密密钥) 干扰源、窃听者 (解密秘钥)信源:向通信系统提供消息的人或机器信宿:接受消息的人或机器信道:传递消息的通道,也是传送物理信号的设施干扰源:整个系统中各个干扰的集中反映,表示消息在信道中传输受干扰情况 信源编码:编码器:把信源发出的消息变换成代码组,同时压缩信源的冗余度,提高通信的有效性 (代码组 = 基带信号;无失真用于离散信源,限失真用于连续信源)译码器:把信道译码器输出的代码组变换成信宿所需要的消息形式基本途径:一是使各个符号尽可能互相独立,即解除相关性;二是使各个符号出现的概率尽可能相等,即概率均匀化信道编码:编码器:在信源编码器输出的代码组上增加监督码元,使之具有纠错或检错的能力,提高通信的可靠性译码器:将落在纠检错范围内的错传码元检出或纠正基本途径:增大码率或频带,即增大所需的信道容量2. 自信息:()log ()X i i I x P x =-,或()log ()I x P x =-表示随机事件的不确定度,或随机事件发生后给予观察者的信息量。
条件自信息://(/)log (/)X Y i j X Y i j I x y P x y =-联合自信息:(,)log ()XY i j XY i j I x y P x y =-3. 互信息:;(/)()(;)log log ()()()i j i j X Y i j i i j P x y P x y I x y P x P x P y ==信源的先验概率与信宿收到符号消息后计算信源各消息的后验概率的比值,表示由事件y 发生所得到的关于事件x 的信息量。
4. 信息熵:()()log ()i iiH X p x p x =-∑ 表示信源的平均不确定度,或信源输出的每个信源符号提供的平均信息量,或解除信源不确定度所需的信息量。
1第1章 概论1. 信号(适合信道传输的物理量)、信息(抽象的意识/知识,是系统传输、转换、处理的对象)和消息(信息的载体)定义;相互关系:(1信号携带消息,是消息的运载工具(2信号携带信息但不是信息本身(3同一信息可用不同的信号来表示(4同一信号也可表示不同的信息。
2. 通信的系统模型及目的:提高信息系统可靠性、有效性和安全性,以达到系统最优化.第2章 信源及信息量1. 单符号离散信源数学模型2. 自信息量定义:一随机事件发生某一结果时带来的信息量I(xi)=-log2P(xi)、单位:bit 、物理意义:确定事件信息量为0;0概率事件发生信息量巨大、性质:I(xi)非负;P(xi)=1时I(xi)=0;P(xi)=0时I(xi)无穷;I(xi)单调递减;I(xi)是随机变量。
3. 联合自信息量:I(xiyi)=- log2P(xiyj) 物理意义:两独立事件同时发生的信息量=各自发生的信息量的和、条件自信息量:I(xi/yi)=- log2P(xi/yj);物理意义:特定条件下(yj 已定)随机事件xi 所带来的信息量。
三者关系:I(xi/yi)= I(xi)+ I(yi/xi)= I(yi)+ I(xi/yi)4. 熵:定义(信源中离散消息自信息量的数学期望)、单位(比特/符号)、物理意义(输出消息后每个离散消息提供的平均信息量;输出消息前信源的平均不确定度;变量的随机性)、计算:(H(X)=-∑P(xi)log2 P(xi)) 1)连续熵和离散的区别:离散熵是非负的2)离散信源当且仅当各消息P相等时信息熵最大H (X )=log 2 n 。
3)连续信源的最大熵:定义域内的极值. 5.条件熵H(Y/X) = -∑∑P(xiyj) log2P(yj/xi),H (X /Y )= -∑∑P(xiyj) log2P(xi/yj) 、物理意义:信道疑义度H(X/Y):信宿收到Y 后,信源X 仍存在的不确定度,有噪信道传输引起信息量的损失,也称损失熵。
信息论与编码第四版总结信息论与编码是信息科学领域的重要课程,旨在研究信息的度量、传输和存储等问题。
第四版教材在前三版的基础上,进一步深化了信息论和编码理论的内容,同时也引入了更多的实际应用案例。
本总结将对该教材的内容进行概括和总结。
一、信息论基础1. 信息的基本概念:教材首先介绍了信息的定义、度量和性质,强调了信息在决策和交流中的重要性。
2. 熵的概念:熵是信息论中的一个基本概念,用于描述随机事件的不确定性。
教材详细介绍了离散和连续熵的概念和计算方法。
3. 信道容量:信道容量是信息传输中的极限性能,用于描述在理想条件下,信道能够传输的最大信息量。
教材介绍了信道容量的计算方法和影响因素。
二、编码理论1. 信源编码:信源编码的目标是减少信息中的冗余,从而减小存储和传输的代价。
教材介绍了各种信源编码方法,如霍夫曼编码、算术编码等。
2. 信道编码:信道编码是为了提高信息传输的可靠性而采取的措施。
教材详细介绍了常见的信道编码方法,如奇偶校验、里德-所罗门码等。
3. 纠错编码:纠错编码是信道编码的一个重要分支,能够实现信息传输的错误检测和纠正。
教材介绍了常见的纠错编码方法,如循环冗余校验、LDPC(低密度奇偶校验)等。
三、实际应用教材通过实际案例,展示了信息论与编码理论在通信、数据压缩、网络安全等领域的应用。
例如,通过分析无线通信中的信道特性,得出信道容量和编码方案的选择;通过数据压缩算法的比较,得出适合特定应用的编码方法;通过网络安全中的错误检测和纠正技术,提高网络通信的可靠性。
四、总结第四版信息论与编码教材在前三版的基础上,进一步深化了信息论和编码理论的内容,引入了更多的实际应用案例。
通过学习该教材,我们可以掌握信息论的基本概念和熵的计算方法,了解信源编码、信道编码和纠错编码的方法和原理,并掌握信息论与编码理论在通信、数据压缩、网络安全等领域的应用。
总之,信息论与编码是一门非常重要的课程,对于理解信息的度量、传输和存储等问题具有重要意义。
信息论与编码复习总结题型:填空、解答、计算1、编码:无失真与限失真信源编码定理编码分为信源编码和信道编码,其中信源编码又分为无失真和限失真三大定理:无失真信源编码定理(第一极限定理)(可逆)信道编码定理(第二极限定理)限失真信源编码定理(第三极限定理)(不可逆)Shannon(香农)信息论:在噪声环境下,可靠地、安全地、有效地传送信息理论。
通信系统模型方框图:信道的种类很多,如电信中常用的架空明线、同轴电缆、波导、光纤、传输电磁波的空间等都是信道。
也可以从信道的性质或其传送的信号情况来分类,例如:无干扰信道和有干扰信道、恒参信道和变参信道、离散信道(Discrete Channel)和连续信道(Continuous Channel)、单用户信道和多用户信道等。
信源的描述:通过概率空间描述平稳包含齐次,而齐次不包含平稳(重要,第二章计算题)定义:若齐次马尔可夫链对一切i,j存在不依赖于i的极限,则称其具有遍历性,p j称为平稳分布(如下)设有一齐次马尔可夫链,其状态转移矩阵为P,其稳态分布为w j=p(s j)自信息量的特性:p(x i)=1,I(x i)=0; p(x i)=0,I(x i)=∞;非负性;单调递减性;可加性;定义:联合概率空间中任一联合事件的联合(自)信息量为:定义:对于给定离散概率空间表示的信源,在出现y事件后所提供有关事件x的信息量定义互信息,单位为比特信道模型:二进制离散信道BSC;离散无记忆信道DMC;波形信道信源编码器的目的:是使编码后所需的信息传输率R尽量小。
信源编码:主要任务就是减少冗余,提高编码效率。
唯一可译码:(任意有限长的码元序列,只能被唯一地分割成一个个的码字,便称为唯一可译码){0,10,11}为唯一可译码,任意有限长码序列:100111000。
(分类)即时码和非即时码变长编码定理:(解答,重要)???1、平均码长:2、根据信源各个符号的统计特性,如概率大的符号用短码,概率小的用较长的码,使得编码后平均码长降低,从而提高编码效率。
“信息论与编码”总复习*****************************************************************************简要***************************************************************************** 第二章 信源与信息熵1.每次只发出一个符号代表一个消息的信源叫做发出单个符号的无记忆信源。
2.由一系列符号组成,这种用每次发出1组含2个以上符号序列来代表一个信息的信源叫做发出符号序列的信源。
3.信源发出的序列的统计性质与时间的推移无关,是平稳的随机序列。
4.当信源的记忆长度为m+1时,该时刻发出的符号与前m 个符号有关联性,而与更前面的符号无关,这种有记忆信源叫做m 阶马尔可夫信源。
若上述条件概率与时间起点无关,则信源输出的符号序列可看成齐次马尔可夫链,这样的信源叫做齐次马尔可夫信源。
5.例题:稳态分布概率|稳定后的符号概率分布:符号条件概率矩阵:1/22/33/44/5⎡⎤⎢⎥⎢⎥-⎢⎥⎢⎥⎣⎦j i 1/21/3[p(s |s )]=1/41/5状态转移概率矩阵1/20001/32/33/40004/5⎡⎤⎢⎥⎢⎥---⎢⎥⎢⎥⎣⎦j i 1/20[p(s |s )]=1/41/50令各稳态分布概率为W1,W2,W3,W4:1131124W W W =+ 2131324W W W =+ 3241135W W W =+ 4242435W W W =+ 12341W W W W +++= 得稳态分布的概率:W1=3/35 W2=6/35 W3=6/35 W4=4/7稳定后的符号概率分布:11131616149()(|)()2353354355735i i i p a p a s p s ==⨯+⨯+⨯+⨯=∑ 221326364426()(|)()2353354355735i i ip a p a s p s ==⨯+⨯+⨯+⨯=∑6.定义具有概率为()i p x 的符号i x 的自信息量为:()log ()i i I x p x =-7.自信息量具有下列特性:(1)()1,()0i i p x I x ==(2)()0,()i i p x I x ==∞(3)非负性(4)单调递减性(5)可加性8.信源熵是在平均意义上来表征信源的总体特征,它是信源X 的 函数,一般写成H (X )。
第一章1.通信系统的基本模型2•信息论研究内容:信源熵,信道容量,信息率失真函数,信源编码,信道编码,密码体制的安全性测度等等1•自信息量:一个随机事件发生某一结果所带的信息量2.平均互信息量:两个离散随机事件集合X和丫,若其任意两件的互信息量为I (Xi;Yj),贝U其联合概率加权的统计平均值,称为两集合的平均互信息量,用I (X;Y )表示3.熵功率:与一个连续信源具有相同熵的高斯信源的平均功率定义为熵功率如果熵功率等于信源平均功率,表示信源没有剩余;熵功率和信源的平均功率相差越大,说明信源的剩余越大。
所以信源平均功率和熵功率之差称为连续信源的剩余度。
信源熵的相对率(信源效率):实际熵与最大熵的比值信源冗余度:1意义:针对最大熵而言,无用信息在其中所占的比例3 .极限熵:比(小=片(灯) 沖/V= limH (心1如兀人x^y平均符号熵的N 取极限值,即原始信源不断发符号,符号间的统计关系延伸到 无穷。
H ( X N )无记忆NH ( X ) H ( X )-—口一」称为平均符号熵N5 .离散信源和连续信源的最大熵定理。
离散无记忆信源,等概率分布时熵最大。
连续信源,峰值功率受限时,均匀分布的熵最大 平均功率受限时,高斯分布的熵最大。
均值受限时,指数分布的熵最大6 •限平均功率的连续信源的最大熵功率:H ( XN)有记忆即 H( X N)H( X N)N定义:若一个连续信源输出信号的平均功率被限定为p,则其输出信号幅度的概率密度1分布是高斯分布时,信源有最大的熵,其值为-log2 ep.对于N维连续平稳信源来说,2若其输出的N维随机序列的协方差矩阵C被限定,则N维随机矢量为正态分布时信源1 N的熵最大,也就是N维高斯信源的熵最大,其值为—log |C | log 2 e2 27. 离散信源的无失真定长编码定理:离散信源无失真编码的基本原理砰---------- ►编码器--------------- ”刊图5.1篱散信源无失真定扶编码康理團原理图说明:(1)信源发出的消息:是多符号离散信源消息,长度为L,可以用L次扩展信源表示为:X L=(X I X2……X L)其中,每一位X i都取自同一个原始信源符号集合(n种符号):X={x 1, X2, ••*}则最多可以对应n L条消息。
《信息论与编码》课程总结信息论与编码作为我们的一门所学课程从它的名称我们就可以知道它是由信息论和编码组成,信息论是编码的基础。
也就是说信息论是理论而编码就是我们的实际操作了。
纵观本书可以看出,信息论与编码是一门应用概率论、随机过程和数理统计等方法来研究信息的存储、传输、控制、和利用的一般规律的科学。
可见它与我们大二所学的概率论与数理统计有很大的联系。
从学习我们也可以看出,书中的很多定义和证明都是从概率论角度出发的,从而衍生出信息论。
作为一名信息与计算科学专业的学生,从这个名字就可以看出信息论与编码对我们所学的专业也是挺重要的了。
通常人们公认信息论的奠基人是当代伟大的数学家和美国杰出的科学家香农,他著名的论文《通信的数学理论》是信息论的理论基础,半个世纪以来,以通信理论为核心的经典信息论,正以信息技术为物化手段,向尖端方向发展,并以神奇般的力量把人类推人信息时代。
那么信息论与编码到底是干嘛的呢?它主要研究如何提高信息系统的可靠性、有效性、保密性和认证性,以使信息系统最优化。
所谓可靠性高就是要使信源发出的消息经过新到传输以后,尽可能准确的、不失真的再现在接收端;而所谓有效性高,就是经济效果好,即用经可能少的和尽可能少的设备来传送一定数量的信息;所谓保密性就是隐蔽和保护通信系统中传送的信息,使他只能被授权接受者获取,而不能被未授权者接受和理解;而认证性是指接受者能正确的判断所接受的消息的正确性,验证消息的完整性,而不是伪造的和被修改的。
20世纪中出现了一个很厉害的人!香农!自香农信息论问世以后,信息理论本身得到不断的发展和深化,尤其在这个理论指导下,信息技术也得到飞快的发展。
这又使对信息的研究冲破了香农狭义信息论的范畴,几乎渗透到自然科学与社会科学的所有领域。
从而形成了一门具有划时代意义的新兴学科----信息科学。
所以信息论是信息科学发展的源泉,也是信息科学的基础理论。
随着信息时代的到来,计算机的应用越来越广泛,所以只要涉及信息的存储,传输和处理的问题就要利用香农信息论的理论---无失真通信的传输的速率极限(香农极限),无失真和限失真信源编码理论(数据压缩原理)和信道编码原理(纠错码原理)。
信息论与编码复习总结
题型:填空、解答、计算
1、编码:无失真与限失真信源编码定理
编码分为信源编码和信道编码,其中信源编码又分为无失真和限失真
三大定理:
无失真信源编码定理(第一极限定理)(可逆)
信道编码定理(第二极限定理)
限失真信源编码定理(第三极限定理)(不可逆)
Shannon(香农)信息论:在噪声环境下,可靠地、安全地、有效地传送信息理论。
通信系统模型方框图:
信道的种类很多,如电信中常用的架空明线、同轴电缆、波导、光纤、传输电磁波的空间等都是信道。
也可以从信道的性质或其传送的信号情况来分类,例如:无干扰信道和有干扰信道、恒参信道和变参信道、离散信道(Discrete Channel)和连续信道(Continuous Channel)、单用户信道和多用户信道等。
信源的描述:通过概率空间描述
平稳包含齐次,而齐次不包含平稳(重要,第二章计算题)
定义:若齐次马尔可夫链对一切i,j存在不依赖于i的极限,则称其具有遍历性,p j称为平稳分布(如下)
设有一齐次马尔可夫链,其状态转移矩阵为P,其稳态分布为w j=p(s j)
自信息量的特性:
p(x i)=1,I(x i)=0; p(x i)=0,I(x i)=∞;非负性;单调递减性;可加性;定义:联合概率空间中任一联合事件的联合(自)信息量为:
定义:对于给定离散概率空间表示的信源,在出现y事件后所提供有关事件x的信息量定义互信息,单位为比特
信道模型:二进制离散信道BSC;离散无记忆信道DMC;波形信道
信源编码器的目的:是使编码后所需的信息传输率R尽量小。
信源编码:主要任务就是减少冗余,提高编码效率。
唯一可译码:(任意有限长的码元序列,只能被唯一地分割成一个个的码字,便称为唯一可译码){0,10,11}为唯一可译码,任意有限长码序列:100111000。
(分类)即时码和非即时码
变长编码定理:(解答,重要)
1、平均码长:
2、根据信源各个符号的统计特性,如概率大的符号用短码,概率小的用
较长的码,使得编码后平均码长降低,从而提高编码效率。
(统计匹配)变长码要求编码效率96%时,序列长仅为2.随着L的增加,编码效率可接近1,有效的利用信道
问:小信号集如何实现统计匹配的变长编码?
答:基本思想为扩张信源,以实现统计匹配
哈夫曼编码(例题)(重要)哈夫曼码是即时码
例:信源(u1,u2),对应概率为p1=2/3,p2=1/3,取L=1,2,3,分别进行二进制哈夫曼编码。
⏹L=1,编码u1→0,u2→1,
⏹对应平均码长k1=1
⏹信源熵H=0.9183bit
⏹编码效率=0.9183
⏹L=2,每次取两个消息,组成新的联合信源
⏹消息集概率编码
⏹u1u14/9 1
⏹u1u22/9 01
⏹u2u12/9 000
⏹u2u21/9 001
⏹平均码长k=0.944
编码效率=0.9725
⏹L=3,三次扩展
⏹消息集概率编码
⏹u1u1u18/27 01
⏹u1u1u24/27 000
⏹u1u2u14/27 001
⏹u1u2u22/27 100
⏹u2u1u14/27 110
⏹u2u1u22/27 111
⏹u2u2u12/27 1010
⏹u2u2u21/27 1011
⏹平均码长k=0.9383
⏹编码效率=0.9787
纠错能力(汉明码)(重要)
卷积码(编码——状态图、网格图):
交织码、级连码(填空)
交织码差错的两种类型:随机差错(独立差错)、突发差错
⏹主要缺点:会带来较长的时延,在实时通信中会带来不利影响
⏹改造方法:卷积交织器,可降低一半的时延
级连码:
既能纠随机独立差错又能纠单个或多个突发差错的码:交错码、乘积码、级连码。