信息的度量
- 格式:pdf
- 大小:153.10 KB
- 文档页数:5
信息论研究的主要内容
信息论是一门研究信息传输、存储、处理等问题的学科,其主要内容包括以下几个方面:
1. 信息的度量和表示:信息的度量可以通过熵、互信息等指标来实现,而信息的表示则可以通过编码的方式来实现。
2. 信道编码和解码:信道编码和解码是信息传输的核心环节,其中编码方法包括香农编码、哈夫曼编码等,而解码方法则包括维特比算法、前向后向算法等。
3. 误差控制编码:误差控制编码是一种能够在数据传输过程中自动纠错的编码方式,其中最常用的是海明码、卷积码等。
4. 压缩编码:压缩编码是一种能够将数据在保持质量不变的情况下减少数据存储空间的编码方式,其中最常用的是无损压缩算法和有损压缩算法。
5. 信息论在通信系统中的应用:信息论在通信系统中的应用包括调制、多路复用、功率控制、网络协议等方面,它为通信系统的设计和性能优化提供了基础理论支持。
总之,信息论研究的主要内容涵盖了信息的度量、信道编码和解码、误差控制编码、压缩编码以及信息论在通信系统中的应用等方面,为信息传输和处理提供了基础理论支持。
- 1 -。
信息计量学的三个层次
信息计量学的三个层次是:信息量的度量、信息的传输与存储和信息的价值评估。
1. 信息量的度量:信息计量学的第一个层次是对信息量进行度量。
这包括对信息的熵、互信息、条件熵等进行定量化的方法和指标。
通过对信息量的度量,可以对信息的重要性进行评估和比较。
2. 信息的传输与存储:信息计量学的第二个层次是研究信息的传输和存储。
这包括对信息传输的速率、容量、可靠性等进行度量和分析,以及对信息存储的容量、可靠性、可访问性等进行度量和评估。
通过对信息传输与存储的研究,可以提高信息传输与存储系统的效率和性能。
3. 信息的价值评估:信息计量学的第三个层次是对信息的价值进行评估。
这包括对信息的经济价值、社会价值、知识价值等进行度量和分析。
通过对信息的价值评估,可以帮助人们更好地利用信息资源,提高信息利用效率,促进经济和社会的发展。
信息论——信息的度量信息的度量 信息具可度量性,其⼤⼩取决于信息所消除的不确定性 举例如下: 消息A:中国⼥⼦乒乓球队夺取亚运会冠军。
消息B:中国男⼦⾜球队夺取世界杯赛冠军。
从事件的描述上来看,其主题内容⼤致相同,那么我们是否可以认为事件A和事件B具有相同的信息量呢?显然是不⾏的。
根据以往经验,我们可以认为事件A是⼀个⼤概率事件,所以事件A的不确定性⽐较⼩,故当事件A发⽣时,我们从这个消息中得到的信息(消除的不确定度)很⼩。
同理对事件B⽽⾔,由于是个极⼩概率事件,我们得到的信息很⼤。
由此我们可以推断:消息B的信息量⼤于消息A。
对于⼀个事件X,我们假设其不确定性为 I(p1) ,其中 p1 是事件X的先验概率。
对应于事件X的消息X所消除的不确定性为 I(p2)。
那么在我们获取了消息X之后,事件X的不确定性就变为了 I(p1)-I(p2) ,由此我们可以知道当我们对⼀个事物的信息获取的越多,其不确定性就越⼩,当其不确定性变为0时,该事件就被确定下来了,我们对其⽆法再获取更多的信息量了。
直观定义: 收到某消息获取的信息量=不确定性减少量=收到该消息前后某事件的不确定性差信息量的数学表⽰ 理论依据(信息量具有的性质): 1.⾮负性对于⼀个事件⽽⾔,当事件被完全确定时,即我们⽆法获取更多信息时,其信息量为0,因此⽆法⽐0更⼩。
2.单调性是先验概率的单调递减函数,即某事件的发⽣概率越⼤,其信息量就越⼩。
3.对于事件A 若 P(a)=0 则 I(Pa)=+∞ 若 P(a)=1 则 I(Pa)=0。
4.两个独⽴事件的联合信息量应等于它们分别的信息量之和。
I(xi)具有两个含义: 1.事件发⽣前,表⽰该事件发⽣的不确定性。
2.事件发⽣后,表⽰该事件所提供的信息量。
术语解释 先验概率(prior probability)是指根据以往经验和分析得到的概率。
第二章 信息的度量2.1 信源在何种分布时,熵值最大?又在何种分布时,熵值最小?答:信源在等概率分布时熵值最大;信源有一个为1,其余为0时熵值最小。
2.2 平均互信息量I(X;Y)与信源概率分布q(x)有何关系?与p(y|x)又是什么关系?答:若信道给定,I(X;Y)是q(x)的上凸形函数; 若信源给定,I(X;Y)是q(y|x)的下凸形函数。
2.3 熵是对信源什么物理量的度量?答:平均信息量2.4 设信道输入符号集为{x1,x2,……xk},则平均每个信道输入符号所能携带的最大信息量是多少?答:k k k xi q xi q X H ilog 1log 1)(log )()(=-=-=∑2.5 根据平均互信息量的链规则,写出I(X;YZ)的表达式。
答:)|;();();(Y Z X I Y X I YZ X I +=2.6 互信息量I(x;y)有时候取负值,是由于信道存在干扰或噪声的原因,这种说法对吗?答:互信息量)()|(log);(xi q yj xi Q y x I =,若互信息量取负值,即Q(xi|yj)<q(xi),说明事件yi 的出现告知的是xi 出现的可能性更小了。
从通信角度看,视xi 为发送符号,yi 为接收符号,Q(xi|yj)<q(xi),说明收到yi 后使发送是否为xi 的不确定性更大,这是由于信道干扰所引起的。
2.7 一个马尔可夫信源如图所示,求稳态下各状态的概率分布和信源熵。
答:由图示可知:43)|(41)|(32)|(31)|(41)|(43)|(222111110201======s x p s x p s x p s x p s x p s x p即:43)|(0)|(41)|(31)|(32)|(0)|(0)|(41)|(43)|(222120121110020100=========s s p s s p s s p s s p s s p s s p s s p s s p s s p可得:1)()()()(43)(31)()(31)(41)()(41)(43)(210212101200=+++=+=+=s p s p s p s p s p s p s p s p s p s p s p s p得:114)(113)(114)(210===s p s p s p=+-+-+-=)]|(log )|()|(log )|()[()]|(log )|()|(log )|()[()]|(log )|()|(log )|()[(222220202121211111010100000s s p s s p s s p s s p s p s s p s s p s s p s s p s p s s p s s p s s p s s p s p H 0.25(bit/符号)2.8 一个马尔可夫信源,已知:0)2|2(,1)2|1(,31)1|2(,32)1|1(====x x p x x p x x p x x p 试画出它的香农线图,并求出信源熵。