信息论与编码 曹雪芹 Chap5
- 格式:ppt
- 大小:1.76 MB
- 文档页数:138
滨江学院《信息论与编码》课程论文题目阐述信息论院系电子工程系专业班级12通信3 班学生姓名学号教师杨玲成绩二O一四年十二月二十二日阐述信息论20122334942摘要:本文介绍了信息论的基础探究,通过本文可以让读者更好的去了解信息论的发展历史和应用。
现代社会是一个充满信息的世界,没有信息的世界是混乱的世界。
因而信息十分重要,随着社会信息化进程的加速,人们对信息的依赖程度会越来越高。
所以关于信息的研究——信息论也因运而生。
提到信息论就不得不提一个人——香农,他为信息论的发展做出了巨大的贡献。
信息论的主要基本理论包括:信息的定义和度量;各类离散信源和连续信源的信源熵;有记忆、无记忆离散和连续信道的信道容量;无失真信源编码和限失真信源编码定理等。
关键词:信息,信源,信源熵,信道容量、信源编码引言现代社会是一个充满信息的世界,没有信息的世界是混乱的世界。
因而信息十分重要,随着社会信息化进程的加速,人们对信息的依赖程度会越来越高。
结合所学知识和查阅相关书籍本文简要介绍了信息论的发展、和主要的几个基础理论,让人们更好的去了解信息论这门课程。
一、信息论的发展过程信息论理论基础的建立,一般来说开始于香农(C.E.Shannon)在研究通信系统时所发表的论文。
随着研究的深入与发展,信息论有了更为宽广的内容。
信息在早些时期的定义是由奈奎斯特(H.Nyquist)和哈特利(L.V.R.Hartley)在20世纪20年代提出来的。
香农被称为是“信息论之父”。
人们通常将香农于1948年10月发表于《贝尔系统技术学报》上的论文《A Mathematical Theory of Communication》(通信的数学理论)作为现代信息论研究的开端。
这一文章部分基于哈里·奈奎斯特和拉尔夫·哈特利先前的成果。
后来其他科学家维纳、朗格等科学家又对信息理论作出了更加深入的探讨。
使得信息论到现在形成了一套比较完整的理论体系。
《信息论与编码(第二版)》曹雪虹答案第二章2.1一个马尔可夫信源有3个符号{}1,23,u u u ,转移概率为:()11|1/2p u u =,()21|1/2p u u =,()31|0p u u =,()12|1/3p u u =,()22|0p u u =,()32|2/3p u u =,()13|1/3p u u =,()23|2/3p u u =,()33|0p u u =,画出状态图并求出各符号稳态概率。
解:状态图如下状态转移矩阵为:1/21/201/302/31/32/30p ⎛⎫ ⎪= ⎪ ⎪⎝⎭设状态u 1,u 2,u 3稳定后的概率分别为W 1,W 2、W 3由1231WP W W W W =⎧⎨++=⎩得1231132231231112331223231W W W W W W W W W W W W ⎧++=⎪⎪⎪+=⎪⎨⎪=⎪⎪⎪++=⎩计算可得1231025925625W W W ⎧=⎪⎪⎪=⎨⎪⎪=⎪⎩ 2.2 由符号集{0,1}组成的二阶马尔可夫链,其转移概率为:(0|00)p =0.8,(0|11)p =0.2,(1|00)p =0.2,(1|11)p =0.8,(0|01)p =0.5,(0|10)p =0.5,(1|01)p =0.5,(1|10)p =0.5。
画出状态图,并计算各状态的稳态概率。
解:(0|00)(00|00)0.8p p == (0|01)(10|01)0.5p p ==(0|11)(10|11)0.2p p == (0|10)(00|10)0.5p p == (1|00)(01|00)0.2p p == (1|01)(11|01)0.5p p ==u 1u 2u 31/21/21/32/32/31/3(1|11)(11|11)0.8p p == (1|10)(01|10)0.5p p ==于是可以列出转移概率矩阵:0.80.200000.50.50.50.500000.20.8p ⎛⎫ ⎪⎪= ⎪ ⎪⎝⎭状态图为:000110110.80.20.50.50.50.50.20.8设各状态00,01,10,11的稳态分布概率为W 1,W 2,W 3,W 4 有411i i WP W W ==⎧⎪⎨=⎪⎩∑ 得 13113224324412340.80.50.20.50.50.20.50.81W W W W W W W W W W W W W W W W +=⎧⎪+=⎪⎪+=⎨⎪+=⎪+++=⎪⎩ 计算得到12345141717514W W W W ⎧=⎪⎪⎪=⎪⎨⎪=⎪⎪⎪=⎩2.3 同时掷出两个正常的骰子,也就是各面呈现的概率都为1/6,求: (1) “3和5同时出现”这事件的自信息; (2) “两个1同时出现”这事件的自信息;(3) 两个点数的各种组合(无序)对的熵和平均信息量; (4) 两个点数之和(即2, 3, … , 12构成的子集)的熵; (5) 两个点数中至少有一个是1的自信息量。