信息论
- 格式:doc
- 大小:22.00 KB
- 文档页数:3
信息论研究的主要内容
信息论是一门研究信息传输、存储、处理等问题的学科,其主要内容包括以下几个方面:
1. 信息的度量和表示:信息的度量可以通过熵、互信息等指标来实现,而信息的表示则可以通过编码的方式来实现。
2. 信道编码和解码:信道编码和解码是信息传输的核心环节,其中编码方法包括香农编码、哈夫曼编码等,而解码方法则包括维特比算法、前向后向算法等。
3. 误差控制编码:误差控制编码是一种能够在数据传输过程中自动纠错的编码方式,其中最常用的是海明码、卷积码等。
4. 压缩编码:压缩编码是一种能够将数据在保持质量不变的情况下减少数据存储空间的编码方式,其中最常用的是无损压缩算法和有损压缩算法。
5. 信息论在通信系统中的应用:信息论在通信系统中的应用包括调制、多路复用、功率控制、网络协议等方面,它为通信系统的设计和性能优化提供了基础理论支持。
总之,信息论研究的主要内容涵盖了信息的度量、信道编码和解码、误差控制编码、压缩编码以及信息论在通信系统中的应用等方面,为信息传输和处理提供了基础理论支持。
- 1 -。
信息论第一章概论1.信息、消息、信号的定义及关系。
定义信息:事物运动状态或存在方式的不确定性的描述。
消息:指包含有信息的语言、文字和图像等。
信号:表示消息的物理量,一般指随时间而变化的电压或电流称为电信号。
关系信息和消息信息不等于消息。
消息中包含信息,是信息的载体。
同一信息可以用不同形式的消息来载荷。
同一个消息可以含有不同的信息量。
信息和信号信号是消息的载体,消息则是信号的具体内容。
信号携带信息,但不是信息本身。
同一信息可用不同的信号来表示,同一信号也可表示不同的信息。
2. 通信系统模型,箭头上是什么?通信的目的及方法。
通信的目的:是为了提高通信的可靠性和有效性。
信源编码:提高信息传输的有效性。
(减小冗余度)信道编码:提高信息传输的可靠性。
(增大冗余度)第二章 信源及其信息量★信源发出的是消息。
信源分类1、信源按照发出的消息在时间上和幅度上的分布情况可将信源分成离散信源和连续信源。
2、根据各维随机变量的概率分布是否随时间的推移而变化将信源分为平稳信源和非平稳信源。
单符号离散信源离散无记忆信源 无记忆扩展信源 离散平稳信源离散有记忆信源 记忆长度无限记忆长度有限(马尔可夫信源)一、单符号离散信源单符号离散信源的数学模型为定义:一个随机事件发生某一结果后所带来的信息量为自信息量。
定义为其发生概率对数的负值。
以 奇才 单位:•对数以2为底,单位为比特 (bit ) (binary unit ) •对数以e 为底,单位为奈特 (nat ) (nature unit)•对数以10为底,单位为笛特(det) (decimal unit) 或哈特 (hart) 物理含义:在事件xi 发生以前,等于事件xi 发生的不确定性的大小;在事件xi 发生以后,表示事件xi 所含有或所能提供的信息量。
性质:①I(x i )是非负值.②当p(x i )=1时,I(x i )=0. ③当p(x i )=0时,I(x i )=∞.④I(x i ) 是p(x i )的单调递减函数.联合自信息量条件自信息量自信息量、条件自信息量和联合自信息量之间有如下关系式:I(x i y j )= I(x i )+ I(y j / x i ) = I(y j )+ I(x i / y j )⎭⎬⎫⎩⎨⎧=⎥⎦⎤⎢⎣⎡)(,),(,),(),( ,, ,, , )( 2121n i n i x p x p x p x p x x x x X P X )(log )( i i x p x I -=)(log )( j i j i y x p y x I -=1)(,1)(01=≤≤∑=ni i i x p x p定义:各离散消息自信息量的数学期望,即信源的平均信息量.单位:比特/符号 物理含义: ① 信源熵H(X)表示信源输出后,离散消息所提供的平均信息量. ② 信源熵H(X)表示信源输出前,信源的平均不确定度. ③ 信源熵H(X)反映了变量X 的随机性.信源符号的概率分布越均匀,则平均信息量越大; 确定事件,不含有信息量。
有关信息论的书籍全文共四篇示例,供读者参考第一篇示例:信息论是一门研究信息传输、存储和处理的学科,其核心是研究信息的度量、压缩、传输和安全性保障。
信息论在通信领域、计算机科学、统计学等领域有着广泛的应用,对于现代社会的信息化进程起着至关重要的作用。
《信息论导论》是一本经典的信息论教材,由克里斯托弗·克里斯托弗(Christopher Bishop)编著。
本书系统地介绍了信息论的基本理论和方法,适合作为信息论初学者的入门教材。
在书中,作者从信息的基本概念出发,讲解了信息量、信息熵、信道容量等基本概念,并重点介绍了信息编码、误差校正、数据压缩等应用技术。
信息是我们生活中不可或缺的一部分,无论是文字、声音、图像等形式的信息都需要通过各种方式进行传输和处理。
信息论提供了一种科学的方法来量化信息的特性和传输过程中的效率,为我们理解信息的本质、设计高效的信息传输系统提供了理论基础。
通过信息论,我们可以了解信息的形式、结构、传输方式、处理方法等方面,从而更好地利用信息资源,提高信息的传输效率和安全性。
在信息论的研究中,信息量和信息熵是两个重要的概念。
信息量是用来度量信息的量的大小,通常使用二进制位(bit)作为单位。
信息熵则是用来度量信息的不确定度的大小,是信息论中的一个重要概念。
信息熵越大,信息的不确定度就越大,反之亦然。
信息熵的计算方法是根据信息的概率分布来计算的,可以用来评估一个信息系统的复杂度和稳定性。
除了信息量和信息熵,信息论还涉及到信道容量、编码理论、压缩方法等多个方面的研究。
信道容量是指在一定的信噪比条件下,信道所能传输的最大信息量,是一种极限性质的指标。
编码理论是研究如何设计有效的编码方案来提高信息传输的效率和可靠性。
数据压缩则是研究如何在保证信息质量的前提下,尽可能减少信息的存储空间或传输带宽。
这些方面的研究成果广泛应用于通信、数据存储、图像处理、机器学习等领域,推动了信息技术的发展和应用。
信息论基础
信息论是一门研究信息传输和处理的科学。
它的基础理论主要有以下几个方面:
1. 信息的定义:在信息论中,信息被定义为能够消除不确定性的东西。
当我们获得一条消息时,我们之前关于该消息的不确定性会被消除或减少。
信息的量可以通过其发生的概率来表示,概率越小,信息量越大。
2. 熵:熵是一个表示不确定性的量。
在信息论中,熵被用来衡量一个随机变量的不确定性,即随机变量的平均信息量。
熵越大,表示随机变量的不确定性越高。
3. 信息的传输和编码:信息在传输过程中需要进行编码和解码。
编码是将消息转换为一种合适的信号形式,使其能够通过传输渠道传输。
解码则是将接收到的信号转换回原始消息。
4. 信道容量:信道容量是指一个信道能够传输的最大信息量。
它与信道的带宽、噪声水平等因素相关。
信道容量的
计算可以通过香浓定理来进行。
5. 信息压缩:信息压缩是指将信息表示为更为紧凑的形式,以减少存储或传输空间的使用。
信息压缩的目标是在保持
信息内容的同时,尽可能减少其表示所需的比特数。
信息论还有其他一些重要的概念和理论,如互信息、信道
编码定理等,这些都是信息论的基础。
信息论的研究不仅
在信息科学领域具有重要应用,还在通信、计算机科学、
统计学等领域发挥着重要作用。
信息论信息论是运用概率论与数理统计的方法研究信息、信息熵、通信系统、数据传输、密码学、数据压缩等问题的应用数学学科。
信息论将信息的传递作为一种统计现象来考虑,给出了估算通信信道容量的方法。
信息传输和信息压缩是信息论研究中的两大领域。
这两个方面又由信息传输定理、信源-信道隔离定理相互联系。
它主要是研究通讯和控制系统中普遍存在着信息传递的共同规律以及研究最佳解决信息的获限、度量、变换、储存和传递等问题的基础理论。
信息论发展的三个阶段第一阶段:1948年贝尔研究所的香农在题为《通讯的数学理论》的论文中系统地提出了关于信息的论述,创立了信息论。
第二阶段:20世纪50年代,信息论向各门学科发起冲击;60年代信息论进入一个消化、理解的时期,在已有的基础上进行重大建设的时期。
研究重点是信息和信源编码问题。
第三阶段:到70年代,由于数字计算机的广泛应用,通讯系统的能力也有很大提高,如何更有效地利用和处理信息,成为日益迫切的问题。
人们越来越认识到信息的重要性,认识到信息可以作为与材料和能源一样的资源而加以充分利用和共享。
信息的概念和方法已广泛渗透到各个科学领域,它迫切要求突破申农信息论的狭隘范围,以便使它能成为人类各种活动中所碰到的信息问题的基础理论,从而推动其他许多新兴学科进一步发展。
信息科学和技术在当代迅猛兴起有其逻辑必然和历史必然。
信息是信息科学的研究对象。
信息的概念可以在两个层次上定义:本体论意义的信息是事物运动的状态和状态变化的方式,即事物内部结构和外部联系的状态和方式。
认识论意义的信息是认识主体所感知、表达的相应事物的运动状态及其变化方式,包括状态及其变化方式的形式、含义和效用。
这里所说的“事物”泛指一切可能的研究对象,包括外部世界的物质客体,也包括主观世界的精神现象;“运动”泛指一切意义上的变化,包括思维运动和社会运动;“运动状态”指事物运动在空间所展示的性状和态势;“运动方式”是事物运动在时间上表现的过程和规律性。
信息论三大定律信息论是由克劳德·香农在1948年提出的一种研究信息传输和处理的数学理论。
在信息论中,有三个重要的定律,分别是香农熵定律、数据压缩定律和通信容量定律。
本文将分别介绍这三个定律的基本原理和相关应用。
首先是香农熵定律。
香农熵是用来描述一个随机变量的平均不确定性的度量。
根据香农熵定律,信息的平均传输速率不能高于信源的熵。
这个定律可以通过以下公式表示:H(X) = - Σ (P(xi) * log2 (P(xi)))其中,H(X)表示随机变量X的熵,P(xi)表示X取值为xi的概率。
根据熵的定义,我们可以得出一个重要结论:当信源的熵为最大值时,信息传输效率最低,即传输的信息量最大。
所以,在信息传输中,我们希望尽量减小信源的熵,以提高信息传输的效率。
香农熵定律的应用广泛。
例如,在数据压缩中,我们可以根据香农熵定律,对信源进行编码,以达到尽量减小信息传输量的目的。
另外,熵也被广泛应用于密码学领域,用来评估密码算法的安全性。
接下来是数据压缩定律。
数据压缩定律指的是,随机变量的数据可以通过适当的编码方法进行压缩,使其传输所需的位数尽可能减少。
数据压缩的目标是尽量减小数据的冗余性,从而节省传输带宽和存储空间。
数据压缩定律的应用非常广泛。
在计算机领域,我们经常使用各种压缩算法对数据进行压缩,例如无损压缩算法(如ZIP)和有损压缩算法(如JPEG)。
此外,数据压缩也被广泛应用于通信领域,以提高数据传输的效率和速率。
最后是通信容量定律。
通信容量定律指的是,在给定的信道条件下,最大传输速率是有限的。
通信容量取决于信道的带宽和信噪比(信号与噪声比)。
通信容量定律的应用包括无线通信、光纤通信等领域。
通过优化通信系统的参数,如信噪比、调制方式等,可以提高通信容量,从而提高数据传输的速率和可靠性。
综上所述,信息论的三大定律分别是香农熵定律、数据压缩定律和通信容量定律。
这些定律在信息传输和处理中起到了重要的作用,相关应用广泛。
信息论知识点总结信息论是一门研究信息传递和处理的科学,主要涉及信息量度、信息特性、信息传输速率、信道容量、干扰对信息传输的影响等方面的知识。
以下是信息论的一些重要知识点:1. 信息量度:信息量是对信息的度量,用于衡量信息的多少。
信息的大小与随机事件的概率有关,熵是衡量随机变量分布的混乱程度,即随机分布各事件发生的信息量的期望值。
2. 信道容量:信道容量是描述信道传输信息能力的指标,表示信道在每秒内所能传输的最大信息量。
对于有噪声的信道,需要通过编码技术来达到信道容量。
3. 条件熵:条件熵是在给定某个条件下的熵,用于衡量在已知某个条件的情况下,随机变量的不确定性。
4. 相对熵(KL散度):相对熵是衡量两个概率分布之间的差异,也称为KL 散度。
如果两个分布相同,相对熵为0。
5. 信息传输速率:信息传输速率是指单位时间内传输的信息量,是评价通信系统性能的重要参数。
6. 干扰对信息传输的影响:在信息传输过程中,各种干扰因素会对信息传输产生影响,如噪声、失真、衰减等。
为了提高信息传输的可靠性和有效性,需要采取抗干扰措施。
7. 信息压缩:信息压缩是减少数据存储空间和提高数据传输效率的一种技术。
常见的压缩算法有Huffman编码、LZ77、LZ78等。
8. 纠错编码:纠错编码是一种用于检测和纠正错误的技术,广泛应用于通信和存储领域。
常见的纠错编码有奇偶校验、CRC等。
9. 加密编码:加密编码是一种保护信息安全的技术,通过对数据进行加密处理,防止未经授权的访问和泄露。
常见的加密编码有AES、RSA等。
以上是信息论的一些重要知识点,希望对您有所帮助。
系统论控制论信息论系统论、控制论、信息论,简称“三论”。
三论是标志着人类现代文明历史进程中光辉里程碑。
高新科技的发展和创新都要求“三论”作理论基础进行指导,例如在航空航天、宇宙天体、原子核能源、军事兵器等,促使科研中庞大复杂的系统工程的目标实现,都离不开“三论”的指导。
我国著名科学家钱学森是创立所谓“中国三论”的学术带头人。
1.系统论的概念、特点:(1)概念:系统论是研究系统的一般模式,结构和规律的学问。
它研究各种系统的共同特征,用数学方法定量的描述其功能,寻求并确立适用于一切系统的原理,原则和数学模型,是具有逻辑和数学性质的一门科学。
(2)类型:系统论是多种多样的,可根据不同的原则和情况来划分系统的类型,按人类干预的情况可划分为自然系统和人工系统,按科学领域可分为自然系统、社会系统、思维系统(城市生态管理学涉及系统论的人工系统知识。
)(3)特点:系统论认为整体性、关联性、等级结构性、动态平衡性、时序性等是所有系统的共同基本特征,这些既是系统所具有的基本思想观点,也是系统方法的基本原则,表现了系统论不仅是反映客观规律的科学理论,且具有科学方法的含义。
城市生态管理的基本点就是将系统论的方法论引入到城市管理中,从而建立了城市生态管理的科学体系。
2.控制论控制论是研究各类系统的调节和控制规律的科学。
自从1948年诺伯特·维纳(Norbert Wiener)发表了著名的《控制论关于在动物和机器中控制和通信的科学》一书以来,控制论的思想和方法已经渗透到了几乎所有的自然科学和社会科学领域。
维纳把控制论看作是一门研究机器、生命社会中控制和通信的一般规律的科学,是研究动态系统在变化的环境条件下如何保持平衡状态或稳定状态的科学。
他特意创造“cybernetics”这个英语新词来命名这门科学。
“控制论”一词最初来源希腊文“mberuhhtz”,原意为“操舵术”,就是掌舵的方法和技术的意思。
在柏拉图(古希腊哲学家)的著作中,经常用它来表示管理人的艺术。
信息论的数学基础知识
信息论是一门研究信息传输、存储和处理的学科,它的数学基础知识涉及概率论、统计学和离散数学等领域。
信息论的发展始于20世纪40年代,由克劳德·香农提出,并在通信工程、计算机科学和统计学等领域得到了广泛应用。
首先,信息论的基础之一是概率论。
概率论是研究随机现象规律性的数学理论,它在信息论中扮演着重要的角色。
信息论利用概率论的概念来描述信息的不确定性和随机性,例如通过熵来度量信息的不确定度。
概率论的知识使得我们能够量化信息的不确定性,从而为信息传输和处理提供了数学工具。
其次,统计学也是信息论的基础知识之一。
统计学是研究数据收集、分析和解释的学科,它在信息论中用于分析和推断数据。
信息论利用统计学的方法来处理和分析信息的特征,比如通过概率分布来描述信息的特征和规律。
统计学的知识使得我们能够对信息进行建模和分析,从而更好地理解信息的特性和行为。
此外,离散数学也是信息论的重要基础知识。
离散数学是研究离散结构和离散对象的数学学科,它在信息论中用于描述和处理离
散的信息单元,比如比特和符号。
信息论利用离散数学的方法来研究信息的编码、传输和存储,比如通过离散变换和编码算法来处理信息。
离散数学的知识使得我们能够对信息进行离散化处理,从而更有效地进行信息传输和处理。
综上所述,信息论的数学基础知识涉及概率论、统计学和离散数学等领域,这些知识为我们理解和应用信息论提供了重要的数学工具。
通过对这些基础知识的学习和掌握,我们能够更好地理解信息的特性和行为,从而在通信工程、计算机科学和统计学等领域更好地应用信息论的理论和方法。
信息论名词解释
信息论是研究信息、信息量、熵和通信系统的学科,主要研究如何在通信中有效地传递信息和如何在通信系统中进行信息处理和度量。
信息论在许多领域都有广泛的应用,包括计算机科学、通信工程、统计学、经济学、生物学等。
信息论中,信息是指对于一个随机事件或事件序列的不确定性的减少量,也称为熵。
熵是信息量的度量,越大表示信息量越多,越小表示信息量越少。
在通信系统中,信息可以通过发送信号或消息来传递,这些信息需要进行编码和解码,以便在接收端正确地理解和处理。
信息论还研究了信息传输的效率和可靠性,提出了一些重要的定理和算法,如香农定理、信源编码和信道编码定理、误码率、信噪比等。
这些理论和算法对于通信系统和信息传输的质量控制和优化具有重要意义。
信息论在现代计算机科学、通信工程、统计学、经济学、生物学等领域都有广泛的应用,对于推动科学技术的进步和社会发展具有重要意义。
信息论原理
信息论是一种研究信息传输和处理的数学理论。
它由克劳德·香农于20世纪40年代提出,被广泛应用于通信、计算机科学和统计学等领域。
信息论的核心概念是信息熵。
熵是表示随机变量不确定性的度量,也可以理解为平均信息的度量。
信息熵越大,表示平均信息越多,不确定性也越大。
通过信息熵的定义,我们可以得到一个重要的定理——香农编码定理。
该定理指出,对于一个离散无记忆信源,它的信息熵可以通过最优编码方式达到最小。
最优编码方式即一种编码方法,能够使得编码的平均长度达到信息熵的下界。
这意味着,我们可以使用更短的编码来传输信息,从而提高信息传输的效率。
除了信息熵和编码定理,信息论还引入了其他重要的概念。
其中之一是互信息,用来度量两个随机变量之间的相关性。
互信息越大,表示两个变量之间的相关性越强,反之亦然。
信息熵和互信息等概念在数据压缩、信道编码和错误纠正码等通信领域的研究中得到了广泛应用。
通过理解和运用信息论的原理,人们可以设计出更高效、可靠的通信系统,提高信息传输的质量和效率。
总之,信息论是研究信息传输和处理的数学理论,通过信息熵
和互信息等概念,可以对信息的不确定性和相关性进行度量,从而提高通信和数据处理的效率和可靠性。
信息论是研究信息传输、储存和处理的一门跨学科科学。
信息论的发展可以大致分为三个阶段,每个阶段都有其独特的特点和主要的研究内容。
一、第一个阶段:信源编码与信道编码1. 信源编码信源编码是信息论发展的最早阶段,主要研究如何有效地表示和压缩信息。
在这个阶段,研究者通过数学方法和算法设计来实现对信息的高效表示和存储,使得信息可以以最小的成本传输和储存。
其中,香农在1948年提出了信息熵的概念,将信息的不确定性用数学语言进行了描述,成为信息论的重要里程碑。
2. 信道编码信道编码是对信息传输过程中出现的误差进行纠正和控制的研究领域。
在这个阶段,研究者主要关注信息在传输过程中受到的干扰和失真问题,设计各种编码方式和技术来提高信道的可靠性和容错能力。
汉明码、卷积码、纠错码等技术都是在这个阶段提出并得到了深入研究和应用。
二、第二个阶段:网络信息论1. 信息网络结构随着互联网的迅猛发展,人们开始关注如何在复杂的信息网络环境中进行信息传输和处理。
信息网络结构的研究成为信息论的重要方向之一,其中包括网络拓扑结构、信息传输路由原理、网络流量控制等内容。
2. 信息网络安全随着信息技术的飞速发展,信息安全问题日益成为人们关注的焦点。
网络信息论在这一阶段开始关注如何在信息传输和处理的过程中保障信息的安全性和隐私性。
密码学、加密技术、数字水印等安全技术在这一阶段得到了广泛的研究和应用。
三、第三个阶段:量子信息论1. 量子信息传输随着量子力学的发展,量子信息论成为信息论研究的新的前沿领域。
量子信息论着眼于利用量子力学的特性来实现更加安全、高效的信息传输。
量子隐形传态、量子纠缠、量子密钥分发等技术成为了量子信息论研究的热点。
2. 量子计算机量子计算机作为量子信息论的重要应用领域,成为信息技术的新的突破方向。
量子计算机以量子比特为基本计算单元,利用量子叠加和量子纠缠的特性来进行信息处理,有望实现传统计算机无法完成的任务。
量子信息论的发展也为量子计算机的实现提供了理论基础和技术支持。
信息论的概念
《信息论的概念》
信息论是非常重要的理论,它探讨了信息和它的表达之间的关系以及信息的表达和它的做出反应之间的关系。
它是科学的一个重要部分,既有研究信息如何被编码,传输和处理的实质问题,也有研究如何从社会和历史角度去理解信息的问题。
信息论的基本概念包括信息的表达(明确的或模糊的)、信息总量、信息熵、信息码、信息传输、信息管理、信息处理和信息搜索等等。
它还包括研究信息的源头、表达方式以及如何收集、分析和处理信息等等。
信息论的概念还有助于快速发展的计算机信息技术领域,可以用来确定最佳的信息传输方式、信息处理策略以及数据采集、管理和分析等,并可以帮助信息系统建设者以高效的方式利用节约成本并降低信息危险性。
此外,信息论对于可信息的传播、可操作的操作、有效的交流和表达也有重要的意义,并可以帮助解决我们当今社会中信息安全的问题。
- 1 -。
电信1201班梁佳琪 A19120164信息论与编码论文——香农理论与信道编码发展前言近年来,无线通信技术得到了广泛的发展,从移动的G3,到联通的沃3G业务,再到电信的WCDMA业务,再最近研究的4G领域,无不显示了无线通信的蓬勃发展。
而要实现信息的无线传输,满足信息传输的三个特性——有效性、可靠性和保密性,就要对通信技术提出了更高的要求,为了达到这个目的,现在世界各国的通信方面的专家都在积极研究这个领域,以实现更高速、更有效地信源、信道编码及传输要求。
香农理论的诞生说起通信,需要回溯到香农与信息论的关系。
香农在1948年发表了《通信的一个数学理论》完整地解决了通信速度上限的问题。
“信息论”从此诞生。
但是香农也留下了一个巨大挑战:怎样才能达到这个速度上限?这个挑战,就开辟了后来五十年来十分热门的研究领域。
信道编码在数据传送时,我们不是直接把一个一个数码送去调制,而是只传送一些预先选定的序列。
要传送的数据被对应到相应的码字来传送。
在接收方,根据收到的码字就能恢复出原始数据。
这种传送的方法就称为编码。
编码的目的可以有多种。
一个目的是保密,这里不讨论。
另一个目的是加快数据传送速度。
把不常用的数据编成长码,常用的编成短码,就能降低码的平均长度,而传送更多的数据。
上文开始时介绍的摩斯码就是这个原理。
我们现在常用zip程式来压缩文档,也是如此。
在通信中,这种编码叫做源编码,有时也称数据压缩。
香农在这方面也有开创性的工作,按下不表。
第三个目的,就是纠正噪声引起的传送错误。
这在上文中也有简单介绍。
这种编码就叫信道编码,也叫纠错码。
香农在证明他的信道容量定理中,引进了“典型序列”的概念。
典型序列就是指序列中的符号出现的比例与符号的先验概率相同。
对于足够长的序列,所有出现机率不为零的序列都是典型序列。
通过选取一些典型序列作为码字,香农证明了最大传送速率。
但是这个概念实行起来有困难。
很长的序列在编码和解码两方面都会非常困难。
而如果序列不长的话,就无法利用“典型序列”的概念。
所以,香农给出的传输速率,在几十年中都不能达到。
信道编码的类型编码类型在近几十年中经历了几个不同的的阶段。
最早的编码类型是分组码。
这也是最容易理解的一种码。
顾名思义,分组码这种编码方式就是把输入数据分为长度固定的组,对每一组分别编码。
比如,最早的分组码是汉明码,写为(7,4,3)。
它的意思是把数据分成4个比特一组,所以共有2的4次方,也就是16种可能的序列。
每个序列对应了一个7比特的码字。
它的编码率是4/7,也就是说在每7比特传送的数据中,有4比特的有效信息,剩下3比特称为冗余。
当然,一般说来我们并不能说7比特中哪个比特是信息哪个比特是冗余,它们是组合在一起的。
(7,4,3)中最后那个数字3,是码字间的最小距离。
码字间的距离(称为汉明距离)是指它们之间不相同的比特数。
比如,两个码字A(0010110)和B (0110011)的汉明距离是3,因为它们有三个比特不同(从左数起比特2,5,7)。
如果我们收到了(0110110),我们可以知道传送的更可能是A,因为它与A只有一个比特不同(比特2),而与B有两个比特不同(比特5和7)。
换句话说,如果传送的是A而接收时错了一位,我们能纠正这个错误。
如果错了两个比特,那它就可能更接近B而导致我们的判断错误。
但它还是不等于B,所以我们还是知道出了错。
假如错三比特的话,那我们就可能认为发射的是B而无法纠正或检测到错误。
所以如果码字间的最小汉明距离是3的话,这个码就可以纠正1比特的错误,检测2比特的错误。
由此可见,分组码的性能是由编码率和最小距离决定的。
编码率决定了同样调制方式下信息传输的速度。
最小距离决定了纠错的能力。
纠错能力越强,就能在越强的噪声下(也就是越低的信噪比下)保持很低的误码率(也就是每一比特信息出错的几率)。
所以,性能优越的码,就是要在同样的编码率下达到尽可能高的最小距离。
我们还记得,香农定理说,在给定的信噪比下有一个最大传送速率。
只要数据转送速率在此限度以下,就可以做到没有错误。
或者反过来说,给定传送速率时,有一个最小的信噪比,只要信噪比大于这个限度就可以做到没有错误。
而对于现实的编码来说,绝对没有错误是不可能的。
对于一个特定的码,它的传送速率是固定的。
在不同的信噪比下,它有不同的误码率。
我们可以在一个可以接受的误码率下比较它所需要的信噪比与不编码情况下的信噪比。
这两者的差称为编码增益编码增益越大,这个码的性能就越好。
而香农定理给出了编码增益的上限,这个上限同时也是研究者的努力目标。
对实际应用来说,除了纠错性能外,一个码要求的运算复杂度也是很重要的。
我们上面其实已经给出了一个最直接的,也是最优的解码方法(称为最大似然法)把收到的数据序列与所有码字比较,找出汉明距离最短的那个作为解码结果。
这样,运算量就与码长成指数关系。
这对于稍长的码来说就很难实现了。
而实用的分组码是基于种种数学结构而产生的,编码和解码都使用某些数学运算而不是硬性搜寻。
这样运算的复杂度就会低很多。
人们为此发展了种种技术。
目前通用的也只是普遍认为最好的几个系列。
一般来说,码越长,纠错能力就越强,但需要的运算量也就越大。
除了分组码以外,另一类编码是卷积码。
它是基于卷积运算,。
图中输入数据进入移位寄存器。
在每一个时钟点,移位寄存器里储存的比特依次向前移一位,也就是得到一位(比特)新的输入数据,同时丢掉一位最老的数据。
同时,寄存器里的数据与两个系数序列(图上标为码1和码2)逐位相乘,结果相加后成为输出比特。
在输出端,两个码产生的两个输出比特被依次输出。
注意,以上说的加法是以2为模的。
即0+0=0,0+1=1,1+1=0,没有进位。
在这种情况下,每个输入比特产生两个输出比特。
所以编码率是1/2。
对于一个传送序列,开始的一段和最后的一段是收,发双方约定的,用来帮助解码。
我们也可以说卷积码是一种很长的分组码:一个传送序列就是一个码组。
当然,由于卷积结构的限制,卷积码的性能并不是同样长度分组码中的最优。
卷积码没有复杂的代数结构,其解码方法就是上面描述过的最大似然法。
上面说过,这种方法的复杂度与码长成指数关系。
幸运的是,1967年维特比提出了著名的维特比算法。
它遵照最大似然法的原则,但利用了卷积码的结构,而使得解码器的复杂度与序列长度成线性关系。
这个杰出的发明使得卷积码真正成为一种实在的、切实可行的编码方式。
维特比算法的基本原理可以用一个简单的例子来说明。
假如我们要找一条从A 到B费时最短的路。
这就是最大似然法的基本要求。
从A到B要经过一座桥C。
从A到C有5条路,从C到B有4条路。
这样组合一下就有20(5×4)种走法,需要做20次测量来找出费时最小的选择。
但是,维特比指出了另一种方法:我们可以先找出A到C的最好路程,需要做5此测量。
然后再找出从C到B的最好路程,4次测量。
总共测量9次(5+4),就解决问题了。
这个乘法到加法的转变,就把复杂度从指数增长变成了线性增长。
这个问题可以简化的关键在于:我们要优化的参数(时间)是每段路程之值的线性相加。
而卷积码正具有这个特性。
以上谈到的分组码和卷积码有一个共性,就是码字是经过精心设计的,使得码字之间的最小距离尽可能大,来增强纠错能力,降低误码率。
但是人们发现了具有一定结构的码也可以具有这样随机的特性。
而它们的结构可以帮助解码。
首先发现的是turbo码。
它也叫乘积码。
编码方法是把两个短码(分组码或卷积码),一个编码后把次序按一定规律打乱,再编一次码。
这样,最后的码长是两个短码长度的乘积。
解码时,也是对于两个短码分别解,但采用迭代的办法。
第一次解码,只是得到一个“可能”的结果。
把这个结果及其相关的概率再输入解码器一遍,就得到一个更加“可靠”一些的结果。
如此反复,就能提高解码增益。
从理论上讲这种方法不一定是最优的,但实际上最后性能非常接近香农极限。
随机码的发明使得编码增益大大提高,基本达到了香农极限。
到2000年代,这些码已经被现代通信系统采纳了。
当然,它们的实现还是比较复杂,所以常常是作为可选功能。
前景展望香农的信息论提出后的半个多世纪,人们为了实现香农预言的传送速度极限作出了巨大的努力,发展了很多精致有效的数学工具,也进行了很多大海捞针式的搜寻。
当然,性能和复杂性的权衡总是有工作要做的,特别是在硬件性能突飞猛进的今天。
另外,除了香农所研究的基本信道外,还有许多更加复杂有趣的信道。
特别是无线通信的发展,产生了多天线通信,协同通信等新技术,给信道容量和实现信道容量提出了很多新课题。
而对信息论的提出和发展的香农及其信源、信道编码理论的发展还远没有止步。
我们有理由相信,在接下来的几十年里,我们会看到无线通信技术将以更加便捷、高效的形式服务于我们的生活!。