当前位置:文档之家› 信息论基础总结

信息论基础总结

信息论基础总结
信息论基础总结

?

?

????=??????)()()()(2211

I I x q x x q x x q x X q X ∑==I i i

x q 1

1

)(??

????=??????)()()()(2211

m q q q q x x x x x x X X m ∏

=N

i i x q 1

)(第1章 信息论基础

信息是物质和能量在空间和时间上分布的不均匀程度,或者说信息是关于事物运动的状态和规律。

消息是能被人们感觉器官感知的客观物质和主观思维的运动状态或存在状态。

通信系统中形式上传输的是消息,实质上传输的是信息,消息中包含信息,消息是信息的载体。

信息论是研究信息的基本性质及度量方法,研究信息的获取、传输、存储和处理的一般规律的科学。

狭义信息论

信息论研究的范畴: 实用信息论

广义信息论

信息传输系统

信息传输系统的五个组成部分及功能:

1. 信源 信源是产生消息的源。

2. 编码器 编码器是将消息变换成适合于信道传送的信号的设备。

编码器分为信源编码器和信道编码器两种。

3. 信道 信道是信息传输和存储的媒介,如光纤、电缆、无线电波等。

4. 译码器 译码器是编码器的逆变换,分为信道译码器和信源译码器。

5. 信宿 信宿是消息的接收者,可以是人,也可以是机器。

离散信源及其数学模型

离散信源—消息集X 为离散集合,即时间和空间均离散的信源。

连续信源—时间离散而空间连续的信源。波形信源—时间和空间均连续的信源。 无记忆信源—X 的各时刻取值相互独立。有记忆信源—X 的各时刻取值互相有关联。

离散无记忆信源的数学模型—离散型的概率空间:

x i ∈{a 1,a 2,…,a k } 1≤i ≤I

0≤q(x i )≤1

离散无记忆N 维扩展信源的数学模型: x =x 1x 2…x N x i ∈{a 1,a 2,…,a k } 1≤i ≤N

q (x )=q (x 1x 2 … x N )=

离散信道及其数学模型

离散信道—信道的输入和输出都是时间上离散、取值离散的随机序列。离散信道有时也称为数字信道。 连续信道—信道的输入和输出都是时间上离散、取值连续的随机序列,又称为模拟信道。 半连续信道—输入序列和输出序列一个是离散的,而另一个是连续的。

波形信道—信道的输入和输出都是时间上连续,并且取值也连续的随机信号。 无记忆信道—信道的输出y 只与当前时刻的输入x 有关。

有记忆信道—信道的输出y 不仅与当前时刻的输入x 有关,还与以前的输入有统计关系。

离散无记忆信道的数学模型—信道转移概率矩阵:

信道输入、输出符号集为X 、Y

X ={x 1,x 2,…,x I },x i ∈{a 1,a 2,…,a k },1≤i ≤I Y ={y 1,y 2,…,y J },y j ∈{b 1,b 2,…,b D },1≤j ≤J

0≤p (y j ∣x i )≤1

离散无记忆N 维扩展信道的特性:

序列的转移概率p (y ∣x )=p (y 1y 2…y N ∣x 1x 2…x N )

通信中常用的概率函数讨论:

信道输入符号集X ={x 1,x 2,…,x i ,…,x I },输入符号x i ∈{a 1,a 2,…,a k },1≤i ≤I ; 信道输出符号集Y ={y 1,y 2,…,y j ,…,y J },输出符号y j ∈{b 1,b 2,…,b D },1≤j ≤J ; 输入符号x i 的概率记为q (x i )称为先验概率,输出符号y j 的概率记为w (y j ); 输入符号为x i 输出符号为y j 时的概率记为p (y j ∣x i )称为信道转移概率, 输出符号为y j 估计输入符号是x i 的概率记为φ(x i ︱y j )称为后验概率; 在输入输出XY 二维联合空间上,x i y j 的联合概率记为p (x i y j )。

先验概率、信道转移概率、后验概率和联合概率应满足的一些性质及关系

∏==N

i i i x y p p 1

)

()(x y 1)(=∑Y

x y p ?

??

?

?

?

?

???

??=)()()()()()()()()(212222111211I J I I J J x y p x y p x y p x y p x y p x y p x y p x y p x y p

P ∑==J

j i j

x y

p 1

1

)(

第2章 信息的度量

自信息量和条件自信息量 一个事件的自信息量就是对其不确定性的度量。

自信息量的性质:

(1)I (x )是q (x )的单调递减函数; (2)信息量具有可加性; (3)当q (x )=1时,I (x )=0; (4)当q (x )=0时,I (x )→∞。

互信息量和条件互信息量 互信息量表明两个随机事件的相互约束程度。

(2-7)

(2-8)

式(2-7)的物理意义:在信源发出信号前,信宿收到y j 的概率为ω(y j ),其不确定性用I(y j )度量。而信源

发出符号x i 后,由于干扰,使信宿收到Y ={y 1,y 2,…,y J }中的哪个符号具有发散性,即信宿是否收到y j 仍存有不确定性,用I(y j ︱x i )度量。这二者之差就是事件发生过程中观察者所获得的信息量。 式(2-8)的物理意义:通信前X 、Y 统计独立,联合概率为p (x i y j )=q (x i )ω(y j ),不确定性用–log q (x i )ω(y j )

=I(x i )+I(y j )度量。通信后,由于信道转移概率p (y j ︱x i )的存在,使符号x i y j 有了某种关联,联合概率p (x i y j )=q (x i ) p (y j ︱x i ),发x i 收y j 的不确定性用I (x i y j )=–log p (x i y j )度量,二者之差就是通信过程中,x i 与y j 所得到的互信息量。 互信息量的性质:

(1)互易性: I (x i ; y j )= I (y j ; x i )

(2)可加性: I (x i ; y j z k )= I (x i ; y j )+ I (x i ; z k ︱y j )

(3)当x i ,y j 统计独立时,互信息量I (x i ;y j )=0及条件互信息量 (4)互信息量I (x i ;y j )可以是正数,也可以是负数。

(5)两个事件的互信息量不大于单个事件的自信息量,即有:

平均自信息量

?平均自信息量(熵)

?平均条件自信息量(条件熵)

从通信角度来看:若X 为信道输入符号集,Y 为信道输出符号集,则称H (X ︱Y )为疑义度/含糊度或 损失熵;称H (Y ︱X )为散布度或噪声熵。

)()();(j i i j i y x I x I y x I -=)

()

(log

i j i x q y x φ=)

()()()

()()

(log

);(j i j i j i j i j i y x I y I x I y x q y x p y x I -+==ω)()()

()

(log );(i j j j i j j i x y I y I y x y p y x I -==ω0);(=k j i z y x I ??

?≤≤)()

();(j i

j i y I x I y x I )(log )()()()(i i i i i i x q x q x I x q X H ∑

∑-=?(比特/符号) ∑∑∑∑

-=?i j i j i j

j i i j j i x y p y x p x y I y x p X Y H )(log )()()()((比特/符号) )(log )(x q x I -?(比特) )(log )(j i j i y x y x I φ-?(比特)

)(log )(j i j i y x p y x I -?(比特) )|(log )()|()()|(j i i j j i i j i j j i y x y x p y x I y x p Y X H φ∑∑

∑∑-=?(比特/符号)

(1)对于无噪信道,X 与Y 一一对应,不存在疑义H (X ︱Y )=0,也不会产生错位H (Y ︱X )=0; (2)在强噪声情况下,X 与Y 统计独立,H (X ︱Y )=H (X ),H (Y ︱X )=H (Y )。

?联合熵 熵、条件熵、联合熵的关系:H (X Y ) = H (X ) + H (Y ︱X )= H (Y ) +H (X ︱Y )

当X ,Y 统计独立时,H (X Y )= H (X )+ H (Y )

极大离散熵定理:

设信源消息集X ={x 1,x 2,,…,x M }的消息个数为M ,则H (X )≤log M ,等号当且仅当信源X 中各消

息等概(=1/M)时成立,即各消息等概分布时,信源熵最大。

熵函数的性质:

(1)对称性 (2)非负性 (3)确定性 (4)扩展性 (5)可加性 (6)条件熵小于等于无条件熵,即:H (X ︱Y)≤H (X),X,Y 统计独立时等号成立。 (7)联合熵大于等于独立事件的熵,小于等于两独立事件熵之和,即: H (XY )≤H (X ) + H (Y )

平均互信息量(交互熵)

平均互信息量与信源熵、条件熵的关系(维拉图)

I (X ;Y )=H (X )-H(X ︱Y) (2-35) I (X ;Y )=H (Y )-H (Y ︱X) (2-36) I (X ;Y )=H (X )+H (Y )-H (XY) (2-37) 从通信的角度讨论:

(2-35)式的物理意义:设X 为发送消息符号集,Y 为接收符号集,H (X )是输入集的平均不确定性,

H (X ︱Y )是观察到Y 后,集X 还保留的不确定性,二者之差I (X ;Y )就是在接收过程中得到的关于X ,Y 的平均互信息量。

(2-36)式的物理意义:H (Y )是观察到Y 所获得的信息量,H (Y ︱X )是发出确定消息X 后,由于干扰而

使Y 存在的平均不确定性,二者之差I (X ; Y )就是一次通信所获得的信息量。

(2-37)式的物理意义:通信前,随机变量X 和随机变量Y 可视为统计独立,其先验不确定性为H (X )+ H (Y ),

通信后,整个系统的后验不确定性为H (XY ),二者之差H (X )+H (Y )-H (XY )就是通信过程中不确定性减少的量,也就是通信过程中获得的平均互信息量I (X ; Y )。

(1)对于无噪信道,X 与Y 一一对应,H(X ︱Y)=0从而I (X ; Y )=H (X );H(Y ︱X)=0从而I (X ; Y )= H (Y ); (2)对于强噪信道,X 与Y 统计独立,H(X ︱Y) =H (X )从而I (X ; Y )=0;H(Y ︱X)= H(Y )从而I (X ; Y ) = 0。

平均互信息量的性质: (1)非负性: (2)互易性:I(X ; Y)= I(Y ; X) (3)极值性:

定理2.1当信道给定,即信道转移概率p (y |x )固定,平均互信息量I (X ;Y )是信源概率分布q (x )的∩形凸函数。

定理2.2当信源给定,即信源分布概率q (x )固定,平均互信息量I (X ; Y )是信道转移概率p (y |x )的∪形凸函数。

???≥≥)

()()

()(Y H XY H X H XY H ()∑∑?i j

j i j i y x I y x p XY H )()(∑∑

-=i j j i j i y x p y x p )(log )((比特/符号) ()()

0;0;≥≥Z Y X I Y X I ()())

(;)(;Y H Y X I X H Y X I ≤≤)

()

(log

)();()();(i j i i

j

j i j i i

j

j i x q y x y x p y x I y x p Y X I φ∑∑∑∑==(比特/符号)

第3章 离散信源无失真编码

信源编码的目的:提高传输效率。 无失真编码,压缩信源的冗余度,不改变信源的熵。

失真编码,压缩信源的熵。

信道编码的目的:

增强通信的可靠性。

信源编码的功能:(1)将信源符号变换成适合信道传输的符号;

(2)压缩信源冗余度,提高传输效率。

?码的分类

?平均码长

式中n m 是码字c m 所对应的码字的长度,p (c m )是码字c m

出现的概率。

?信息传输速率

信息传输速率为信道单位时间内所传输的信息量/信道中平均每个码符号所能传送的信息量。

(比特/码元时间)

式中:H (X )为信源熵; 为编码后的平均码长;时间以码元时间(传输一个码符号的时间)为单位。

等长码及等长编码定理

对单符号信源S 的L 次扩展信源S (L)进行等长编码,要得到长为n 的唯一可译码,必须满足K L ≤D n

其中:K 为信源符号个数,D 为码符号个数,n/L 表示信源序列中平均每个信源符号所需要的码符号数。

定理3.1 等长编码定理 设离散无记忆信源S ={x 1,x 2,…,x k }的熵为H (X ),S 的L 维扩展信源为 ,对信源输出的L 长序列s i ,i = 1, 2, …, K L 进行等长编码,码字是长度为n 的D

进制符号串,当满足条件 ,则L →∞时,可使译码差错p e <δ(ε、δ为无穷小量);反之

当 时,则不可能实现无差错编码。

编码效率:

变长码及变长编码定理

对于给定信源及码符号集,使平均码长达到最小的编码方法称为最佳编码。 在所有的唯一可译码中,平均码长最小的码称为最佳码(紧致码)。

},,,{21)(L k L S s s s =()D X H L n log ε+>()D X H L n log ε+

n X LH log )

(=η()∑

==M m m m c p n n 1

非奇异码 非惟一可译码 惟一可译码

变长码 等长码 即时码

延长码 奇异码

码 ()n

X H R D =n D

K L n log log ≥

克拉夫特不等式: 惟一可译码一定满足克拉夫特不等式,满足克拉夫特不等式的码不一定是惟一可译码。

定理3.3 给定熵为H (X )的离散无记忆信源,及有D 个元素的码符号集,则总可找到一种无失真编码方法,构成惟一可译码,其平均码长 满足: 定理3.4 变长编码定理 (Shannon 第一定理) 给定熵为H (X )的离散无记忆信源 ,其L 次扩展信源

的熵记为H (X ),给定有D 个元素的码符号集,对扩展信源进行编码,总可以找到一种惟一可译码,使码长 满足

记 为信源每个符号所对应的平均码字数,则: 当L →∞时 , 达到极限值。Shannon 第一定理的物理意义:

对信源进行编码,使编码后的码集中各码字尽可能等概分布,如果将这码集看成为一个新的信源,这时新信源所含信息量最大。

编码效率:

变长码的编码方法 香农(Shannon )编码法;费诺(Fano)编码法;霍夫曼(Huffman)编码法。

霍夫曼编码法的指导思想是:概率小的消息赋予较大的码长,概率大的消息赋予较小的码长。 掌握D=2即二进制霍夫曼编码方法。

∑=-≤M

m n m

D

1

1

n ()()D X H n D X H log 1log +<≤??

????=??????)()()()(2121M M x q x q x q x x x X q X ??????=??????)()()()(2121

L M M q q q q x x x x x x X X n L ()()L D X H L n D X H L 1log log +<≤n L n L =()()L D X H n D X H 1

log log +<≤()()D n X H n D X H log log =?ηD X H n L log )(_

lim

=∞

→D

n X H R D log )(_==

第6章 率失真编码

?失真测度矩阵

其中:d i j =d (x i ,y j )为信源方发送符号x i 而信宿方判为y j 引起的失真度。

?平均失真

保真度准则:

式中D 是预先给定的失真度。

?率失真函数R (D )

意义:选择p (y ∣x )即选择某种编码方法在满足 的前提下,使I (X ; Y )达到最小值R (D ),这就是满足平均失真 条件下的信源信息量可压缩的最低程度。

?率失真函数的值域、定义域

0≤R (D )≤H (X ) D min ≤D ≤D max ,

率失真函数的性质:

(1)R (D )是D 的∪型凸函数

(2)R (D )是D 的连续、单调、减函数

(3)对于离散无记忆信源(DMS ),R (N ) (D ) = N R (D )

R (D )是每次传送一个符号时的率失真函数,R (N)(D )是每次传送N 个符号时的率失真函数。

率失真信源编码定理

对于离散无记忆平稳信源,给定允许失真D ,当信息传输率R >R(D),则只要信源序列x = x 1x 2…x N 足够长,一定存在一种编码方法(对应一种实验信道),使平均失真满足 ,ε是任意小的正数。反之,若信息传输率R <R(D),则无论如何采用何种编码方法,必有 。

上述定理(香农第三定理),

R >R(D)的情况称为保真度准则下的率失真编码定理,R <R(D)的情况称之为逆定理。

[]?????

???????=J I I I J J d d d d d d d d d d 212221211211j i I i J j j i d y x p D ∑∑===11)(j

i I i J j i j i d x y p x q ∑∑

===11)()(D D ≤D D ≤∑

?i

j

i y i d x q D j

min )(min ∑==I i ij

i j

d x q D 1

max )(min ()()

D d x y p x q D ij i j i j

i ≤=∑∑

|()(){}

D

D Y X I D R x y p ≤?:;min )

|(ε+≤D D D D ≥

第4章 离散信道的信道容量

信道容量的定义

(比特/码符号)

,使I (X ; Y )达到信道容量的分布q (x )为最佳分布。

定理4.1 如果信道是离散无记忆(DMC )的,则C N ≤NC ,其中C 是同一信道传输单符号时的信道容量。

定理4.2 使平均互信息量I (X ; Y )达到信道容量C 的充要条件是信道输入概率分布 简记为q (X ) = {q (x 1), q (x 2), …, q (x M )}满足:

?无损信道 H (X ∣Y )= 0 I (X ; Y )= H (X )

?确定信道 H (Y ∣X )= 0 I (X ; Y )= H (Y )

行(输入)对称信道、列(输出)对称信道、准对称信道(对称信道)。 定理4.3 实现DMC 准对称信道的信道容量的分布为等概分布。

信道容量的计算 ① 准对称信道 ② 信源只含两个消息

?并行信道 并行组合信道的信道总容量:

?串行信道 串行组合信道的信道转移概率矩阵:

数据处理定理:无论经过何种数据处理,都不会使信息量增加。

);(max )

(Y X I C x q ??

?????=??????)()()()(2121M M x q x q x q x x x X q X ()()M

i x q C

Y x I x q C Y x I i i i i ,,2,10

)(;0)(; ==≤>=???若若)(max );(max )

()(X H Y X I C x q x q =?)(max );(max )

()(Y H Y X I C y w x q =?∑

=≤N

k k C C 1

[][

][]

)

()()('''i

j i j i j x y p x y p x y p ?=

信源编码的目的:提高有效性。方法:压缩信源的冗余度。衡量指标:信息传输速率。

信道编码的目的:增强可靠性。方法:增加信源的冗余度。衡量指标:平均错误概率。

译码总原则:错误概率最小(最佳译码)。

最大后验概率译码准则(=最大联合概率译码准则)

极大似然译码准则(在信道输入等概条件下为最佳译码准则)

?平均错误概率

有噪信道编码定理(Shannon 第二定理)

对于任何离散无记忆信道DMC ,存在信息传输率为R ,长为n 的码,当n →∞时,平均差错概率 p e < exp{-nE (R )}→0,式中E (R )为可靠性函数,E (R )在0

信道容量C 是在满足错误概率p e →0时,信道所能容纳的信息传输率的极限值。

信道编码逆定理

信道容量C 是可靠通信系统信息传输率的上界,当R >C ,不可能存在任何方法使差错概率任意小。

?费诺不等式 H (X ︱Y ) ≤ H 2(p e ) + p e log(k -1)

∑∑

=

k p p e x -x y

xy )(

差错控制系统中使用的码 检错码

纠错码 分组码 差错类型 随机错误 — 无记忆信道

卷积码 突发错误 — 有记忆信道

前向纠错(FEC )方式

差错控制系统的控制方式 重传反馈(ARQ )方式

混合纠错(HEC )方式

线性分组码:(n ,k ),码长n ,k 位信息元,r 位校验元,n = k +r ,(编)码(效)率R = k /n

生成矩阵G : G 是k ×n 阶矩矩

系统码的生成矩阵G=[I k P ],其中,I k 为k 阶单位方阵,P 为k ×(n-k )阶矩阵。 校验矩阵H : H 是(n-k )×n 阶矩阵

系统码的校验矩阵H=[P T I r ],其中,I r 为r 阶单位方阵,P T 为(n-k)×k 阶矩阵。 G ·H T =0 H ·G T =0T

对偶码: (n ,k )码,G 、H ;(n ,r )码,G d 、H d G =H d

H =G d

码的距离和重量: 码的最小距离d 愈大,其抗干扰能力愈强。 定理8.2 对于任一个(n ,k )线性分组码,若要在码字内

⑴ 检测e 个错误,则要求码的最小距离d ≥ e +1; ⑵ 纠正t 个错误,则要求码的最小距离d ≥2t +1;

⑶ 纠正t 个错误同时检测e (≥ t )个错误,则要求d ≥ t +e +1。

定理8.3 (n ,k )线性分组码有最小距离为d 的充要条件,是H 矩阵中任意d -1列线性无关。

伴随式:接收序列y =c +e ,e 为信道的错误图样 接收序列y 的伴随式(校正子) s = y .H T =e .H T

汉明码:(n ,k )=(2r -1,2r -1-r ),能纠单个错误且信息传输率为最大的线性分组码。

汉明码的H 矩阵的列由非全零且互不相同的所有二进制r 重组成。

??????

???

???=????????????=------0,2,1,0,22,21,20,12,11,1k n k n k n n n n g g g g g g g g g k 21c c c G []?

????????

????=?=---------0,2,1,0,22,21,20,12,11,121k n k n k n n n n k n n n i i g g g g g g g g g

m m m G m c ????

????????=

---------0,2

,1,0,22,21,20,12,11

,1k n n k n n k n n n n n h h h h h h h h h

H

《信息论基础A》(清华)复习资料

信息论基础A 复习资料 作者 郝仁 第一章 概论 ● 在认识论层次研究信息时,把只考虑到形式因素的部分称为语法信息, 把只考虑到含义因素的部分称为语义信息;把只考虑到效用因素的部分称为语用信息。目前,信息论中主要研究语法信息 ● 归纳起来,香农信息论的研究内容包括: 1) 信息熵、信道容量和信息率失真函数 2) 无失真信源编码定理、信道编码定理和保真度准则下的信源编码定理 3) 信源编码、信道编码理论与方法 ● 一般认为,一般信息论的研究内容除香农信息论的研究内容外,还包括 维纳的微弱信号检测理论:包括噪声理论、信号滤波与预测、统计检测与估计理论、调制理论等。 信息科学以信息为研究对象,信息科学以信息运动规律为研究内容,信 息运动包括获取、传递、存储、处理和施用等环节。 第二章 离散信源及离散熵 ● 单符号离散信源的数学模型:1 212()()()()n n x x x X P x P x P x P X ?? ??=? ??????? L L 自信息量:()log ()i x i I x P x =-,是无量纲的,一般根据对数的底来定义单位:当对数底为2时,自信息量的单位为比特(bit,binary unit);对数底为e 时,其单位为奈特(nat,nature unit);对数底为10时,其单位为哈特(Hart, Hartley) 自信息量性质:I(x i )是随机量;I(x i )是非负值;I(x i )是P(x i )的单调递减函数。 ● 单符号离散信源的离散熵: 1()[()]()()n i i i i H X E I x P x lbP x ===-∑,单位是比特/符号(bit/symbol)。 离散熵的性质和定理:H(X)的非负性;H(X)的上凸性;

信息论基础各章参考答案

各章参考答案 2.1. (1)4.17比特 ;(2)5.17比特 ; (3)1.17比特 ;(4)3.17比特 2.2. 1.42比特 2.3. (1)225.6比特 ;(2)13.2比特 2.4. (1)24.07比特; (2)31.02比特 2.5. (1)根据熵的可加性,一个复合事件的平均不确定性可以通过多次实验逐步解除。如果我们使每次实验所获得的信息量最大。那么所需要的总实验次数就最少。用无砝码天平的一次称重实验结果所得到的信息量为log3,k 次称重所得的信息量为klog3。从12个硬币中鉴别其中的一个重量不同(不知是否轻或重)所需信息量为log24。因为3log3=log27>log24。所以在理论上用3次称重能够鉴别硬币并判断其轻或重。每次实验应使结果具有最大的熵。其中的一个方法如下:第一次称重:将天平左右两盘各放4枚硬币,观察其结果:①平衡 ②左倾 ③右倾。ⅰ)若结果为①,则假币在未放入的4枚币,第二次称重:将未放入的4枚中的3枚和已称过的3枚分别放到左右两盘,根据结果可判断出盘中没有假币;若有,还能判断出轻和重,第三次称重:将判断出含有假币的三枚硬币中的两枚放到左右两盘中,便可判断出假币。ⅱ)若结果为②或③即将左盘中的3枚取下,将右盘中的3枚放到左盘中,未称的3枚放到右盘中,观察称重砝码,若平衡,说明取下的3枚中含假币,只能判出轻重,若倾斜方向不变,说明在左、右盘中未动的两枚中其中有一枚为假币,若倾斜方向变反,说明从右盘取过的3枚中有假币,便可判出轻重。 (2)第三次称重 类似ⅰ)的情况,但当两个硬币知其中一个为假,不知为哪个时, 第三步用一个真币与其中一个称重比较即可。 对13个外形相同的硬币情况.第一次按4,4,5分别称重,如果假币在五个硬币的组里,则鉴 别所需信息量为log10>log9=2log3,所以剩下的2次称重不能获得所需的信息. 2.6. (1)215 log =15比特; (2) 1比特;(3)15个问题 2. 7. 证明: (略) 2.8. 证明: (略) 2.9. 31)(11= b a p ,121 )(21=b a p , 121 )(31= b a p , 61)()(1312= =b a b a p p , 241)()()()(33233222= ===b a b a b a b a p p p p 。 2.10. 证明: (略) 2.11. 证明: (略)

信息论基础及答案

《信息论基础》试卷第1页 《信息论基础》试卷答案 一、填空题(共25分,每空1分) 1、连续信源的绝对熵为 无穷大。(或()()lg lim lg p x p x dx +∞-∞ ?→∞ --?? ) 2、离散无记忆信源在进行无失真变长信源编码时,编码效率最大可以达到 1 。 3、无记忆信源是指 信源先后发生的符号彼此统计独立 。 4、离散无记忆信源在进行无失真变长编码时,码字长度是变化的。根据信源符号的统计特性,对概率大的符号用 短 码,对概率小的符号用 长 码,这样平均码长就可以降低,从而提高 有效性(传输速率或编码效率) 。 5、为了提高系统的有效性可以采用 信源编码 ,为了提高系统的可靠性可以采用 信道编码 。 6、八进制信源的最小熵为 0 ,最大熵为 3bit/符号 。 7、若连续信源输出信号的平均功率为1瓦特,则输出信号幅度的概率密度函数为 高斯分布(或()0,1x N 2 2 x - )时,信源具有最大熵,其值为 0.6155hart(或 1.625bit 或 1lg 22 e π)。 8、即时码是指 任一码字都不是其它码字的前缀 。 9、无失真信源编码定理指出平均码长的理论极限值为 信源熵(或H r (S)或()lg H s r ),此 时编码效率为 1 ,编码后的信息传输率为 lg r bit/码元 。 10、一个事件发生的概率为0.125,则自信息量为 3bit/符号 。 11、信源的剩余度主要来自两个方面,一是 信源符号间的相关性 ,二是 信源符号概率分布的不均匀性 。 12、m 阶马尔可夫信源的记忆长度为 m+1 ,信源可以有 q m 个不同的状态。 13、同时扔出一对均匀的骰子,当得知“两骰子面朝上点数之和为2”所获得的信息量为 lg36=5.17 比特,当得知“面朝上点数之和为8”所获得的信息量为 lg36/5=2.85 比特。 14.在下面空格中选择填入的数学符号“=,≥,≤,>”或“<” H(XY) = H(Y)+H(X ∣Y) ≤ H(Y)+H(X)

信息论基础论文

信息论基础发展史 信息论(information theory)是运用概率论与数理统计的方法研究信息、信息熵、通信系统、数据传输、密码学、数据压缩等问题的应用数学学科。是专门研究信息的有效处理和可靠传输的一般规律的科学,是研究通讯和控制系统中普遍存在着信息传递的共同规律以及研究最佳解决信息的获限、度量、变换、储存和传递等问题的基础理论。信息论将信息的传递作为一种统计现象来考虑,给出了估算通信信道容量的方法。信息传输和信息压缩是信息论研究中的两大领域。这两个方面又由信息传输定理、信源-信道隔离定理相互联系。 信息论从诞生到今天,已有五十多年历史,是在20世纪40年代后期从长期通讯实践中总结出来的,现已成为一门独立的理论科学,回顾它的发展历史,我们可以知道理论是如何从实践中经过抽象、概括、提高而逐步形成的。它是在长期的通信工程实践和理论研究的基础上发展起来的。 通信系统是人类社会的神经系统,即使在原始社会也存在着最简单的通信工具和通信系统,这方面的社会实践是悠久漫长的。电的通信系统(电信系统)已有100多年的历史了。在一百余年的发展过程中,一个很有意义的历史事实是:当物理学中的电磁理论以及后来的电子学理论一旦有某些进展,很快就会促进电信系统的创造发明或改进。 当法拉第(M.Faraday)于1820年--1830年期间发现电磁感应的基本规律后,不久莫尔斯(F.B.Morse)就建立起电报系统(1832—1835)。1876年,贝尔(A.G.BELL)又发明了电话系统。1864年麦克斯韦(Maxell)预言了电磁波的存在,1888年赫兹(H.Hertz)用实验证明了这一预言。接着1895年英国的马可尼(G.Marconi)和俄国的波波夫(A.C.ΠoΠoB)就发明了无线电通信。本世纪初(1907年),根据电子运动的规律,福雷斯特(1,Forest)发明了能把电磁波

信息论基础与编码复习2

信息论基础与编码复习 一、已知信源??? ???=??????5.05.02 1x x P X 接到信道??? ? ? ?=8.02 .002.098.0)|(X Y P 上,求在该信道上传输的平均互信息量);(Y X I 、疑义度)|(Y X H ,噪声熵)|(X Y H 和联合熵)(XY H 。 参考答案:不要求计算结果,只要与出公式,每份5分,共20分 ()()(|)P Y P X P Y X = )|(X Y H =-2 2 211()log (|)i j j i i j p x y p y x ==∑∑ )|(Y X H =-2 2211()log (|)i j i j i j p x y p x y ==∑∑ )(XY H =-2 2 211 ()log ()i j i j i j p x y p x y ==∑∑ );(Y X I =()()()H X H Y H XY +- 二、一维随机变量X 在区间],[b a 内均匀分布,试求此连续信源的熵)(x H c 。 参考答案: 1 222()()log ()log ()log ()b c b a a H X p x p x dx b a dx b a +∞ --∞ =-=-=-? ? (bit ) (10分) 三、一维随机变量X 的取值是),(+∞-∞,其概率密度函数为2 22)(2 21)(σμπσ -- =x e x p (高斯 信道),试求此连续信源的熵)(x H c 。 参考答案:()EX xp x dx μ+∞ -∞ = =? 22()()DX x p x dx μσ+∞ -∞ =-=? (5分) 2 122()()log ()log (2)c H X p x p x dx e πσ+∞ -∞ =-=? (bit ) (10分) 五、一个三状态马尔可夫信源的转移概率矩阵为??? ? ? ??=412 14 1212 1 2 12 100 P ,请绘制状态转移图,并求该马尔可夫信源的稳态分布。( 10 分) 参考答案:1、绘制状态转移图 (5分) 2、稳态分布7 31)(= s P ,722)(=s P ,72 3)(=s P (5分)

信息论基础理论与应用考试题及答案

信息论基础理论与应用考试题 一﹑填空题(每题2分,共20分) 1.信息论研究的目的就是要找到信息传输过程的共同规律,以提高信息传输的 (可靠性)﹑(有效性)﹑保密性和认证性,使信息传输系统达到最优化。 (考点:信息论的研究目的) 2.电视屏上约有500×600=3×510个格点,按每点有10个不同的灰度等级考虑,则可组成5 31010?个不同的画面。按等概计算,平均每个画面可提供的信息量约为(610bit /画面)。 (考点:信息量的概念及计算) 3.按噪声对信号的作用功能来分类信道可分为 (加性信道)和 (乘性信道)。 (考点:信道按噪声统计特性的分类) 4.英文电报有32个符号(26个英文字母加上6个字符),即q=32。若r=2,N=1,即对信源S 的逐个符号进行二元编码,则每个英文电报符号至少要用 (5)位二元符号编码才行。 (考点:等长码编码位数的计算) 5.如果采用这样一种译码函数,它对于每一个输出符号均译成具有最大后验概率的那个输入符号,则信道的错误概率最小,这种译码规则称为(最大后验概率准则)或(最小错误概率准则)。 (考点:错误概率和译码准则的概念) 6.按码的结构中对信息序列处理方式不同,可将纠错码分为(分组码)和(卷积码)。 (考点:纠错码的分类) 7.码C={(0,0,0,0),(0,1,0,1),(0,1,1,0),(0,0,1,1)}是((4, 2))线性分组码。 (考点:线性分组码的基本概念) 8.定义自信息的数学期望为信源的平均自信息量,即(11()log ()log ()()q i i i i H X E P a P a P a =??==-????∑)。

信息论复习提纲

第一章 1、信息的概念。 信息是事物运动状态或存在方式的不确定性的描述。 2、信息论的研究对象、研究目的。 对象:通信系统模型。 目的:找到信息传输过程的共同规律,以提高信息传输的可靠性、有效性、保密性和认证性,以达到信息传输系统最优化。 3、通信系统模型的组成,及各部分的功能 (1)信息源:产生消息的源,消息可以是文字,语言,图像。可以离散,可以连续。随机发生。 (2)编码器: 信源编码器:对信源输出进行变换(消去冗余,压缩),提高信息传输的有效性 信道编码器:对信源编码输出变换(加入冗余),提高抗干扰能力,提高信息传输的可靠性(3)信道:信号从发端传到收端的介质 (4)译码器:译码就是把信道输出(已叠加了干扰)的编码信号进行反变换。 (5)信宿:信宿是消息传送的对象,即接受消息的人或机器。 (6)干扰源:系统各部分引入的干扰,包括衰落,多径,码间干扰,非线性失真,加性噪声,主要研究的是统计特性。 4、消息,信号,信息三者之间的关系 信息---可以认为是具体的物理信号、数学描述的消息的内涵,即信号具体载荷的内容、消息描述的含义。 信号---则是抽象信息在物理层表达的外延; 消息---则是抽象信息在数学层表达的外延 第二章 1、信源的分类,着重单符号信源。信源的概率空间的构成形式。 单消息(符号)信源,离散信源,连续变量信源,平稳信源,无/有记忆信源,马尔可夫信源,随机波形信源。 单消息(符号)信源: 单消息(符号)信源--离散信源 单消息(符号)信源--连续信源 2、自信息的计算及物理含义,单位与底数的关系,含义。 计算: 含义:当事件ai发生以前,表示事件ai发生的不确定性 当事件ai发生以后表示事件ai所含有(所提供)的信息量 单位与底数的关系: 通信与信息中最常用的是以2为底,这时单位为比特(bit); 理论推导中用以e为底较方便,这时单位为奈特(Nat); 工程上用以10为底较方便,这时单位为哈特(Hart)。 它们之间可以引用对数换底公式进行互换。比如: 1 bit = 0.693 Nat = 0.301 Hart

信息论基础》试卷(期末A卷

《信息论基础》答案 一、填空题(本大题共10小空,每小空1分,共20分) 1.按信源发出符号所对应的随机变量之间的无统计依赖关系,可将离散信源分为有记忆信源和无记忆信源两大类。 2.一个八进制信源的最大熵为3bit/符号 3.有一信源X ,其概率分布为1 23x x x X 1 11P 244?? ?? ? =?? ????? ,其信源剩余度为94.64%;若对该信源进行十次扩展,则每十个符号的平均信息量是 15bit 。 4.若一连续消息通过放大器,该放大器输出的最大瞬间电压为b ,最小瞬时电压为a 。若消息从放大器中输出,则该信源的绝对熵是∞;其能在每个自由度熵的最大熵是log (b-a )bit/自由度;若放大器的最高频率为F ,则单位时间内输出的最大信息量是 2Flog (b-a )bit/s. 5. 若某一 信源X ,其平均功率受限为16w ,其概率密度函数是高斯分布时,差熵的最大值为 1 log32e 2 π;与其熵相等的非高斯分布信源的功率为16w ≥ 6、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 7、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r (S))。 8、当R=C 或(信道剩余度为0)时,信源与信道达到匹配。 9、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。 10、在下面空格中选择填入数学符号“,,,=≥≤?”或“?” (1)当X 和Y 相互独立时,H (XY )=H(X)+H(X/Y)。 (2)假设信道输入用X 表示,信道输出用Y 表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)

信息论基础理论与应用考试题及答案

信息论基础理论与应用考试题及答案

信息论基础理论与应用考试题 一﹑填空题(每题2分,共20分) 1.信息论研究的目的就是要找到信息传输过程的共同规律,以提高信息传输的 (可靠性)﹑(有效性)﹑保密性和认证性,使信息传输系统达到最优化。 (考点:信息论的研究目的) 2.电视屏上约有500×600=3×510个格点,按每点有10个不同的灰度等级考虑, 则可组成5 31010?个不同的画面。按等概计算,平均每个画面可提供的信息量约 为(610bit /画面)。 (考点:信息量的概念及计算) 3.按噪声对信号的作用功能来分类信道可分为 (加性信道)和 (乘性信道)。 (考点:信道按噪声统计特性的分类) 4.英文电报有32个符号(26个英文字母加上6个字符),即q=32。若r=2,N=1, 即对信源S 的逐个符号进行二元编码,则每个英文电报符号至少要用 (5)位 二元符号编码才行。 (考点:等长码编码位数的计算) 5.如果采用这样一种译码函数,它对于每一个输出符号均译成具有最大后验概 率的那个输入符号,则信道的错误概率最小,这种译码规则称为(最大后验 概率准则)或(最小错误概率准则)。 (考点:错误概率和译码准则的概念) 6.按码的结构中对信息序列处理方式不同,可将纠错码分为(分组码)和(卷 积码)。 (考点:纠错码的分类) 7.码C={(0,0,0,0),(0,1,0,1),(0,1,1,0),(0,0,1,1)}是((4, 2))线性分组码。 (考点:线性分组码的基本概念) 8.定义自信息的数学期望为信源的平均自信息量,即(11()log ()log ()()q i i i i H X E P a P a P a =??==-????∑)。

信息论基础总结

?? ? ???=??????)()()()(2 211 I I x q x x q x x q x X q X Λ Λ∑==I i i x q 1 1 )(?? ? ???=??????)()()()(2211 m q q q q x x x x x x X X m ΛΛ∏ =N i i x q 1 )(第1章 信息论基础 信息是物质和能量在空间和时间上分布的不均匀程度,或者说信息是关于事物运动的状态和规律。 消息是能被人们感觉器官感知的客观物质和主观思维的运动状态或存在状态。 通信系统中形式上传输的是消息,实质上传输的是信息,消息中包含信息,消息是信息的载体。 信息论是研究信息的基本性质及度量方法,研究信息的获取、传输、存储和处理的一般规律的科学。 狭义信息论 信息论研究的范畴: 实用信息论 广义信息论 信息传输系统 信息传输系统的五个组成部分及功能: 1. 信源 信源是产生消息的源。 2. 编码器 编码器是将消息变换成适合于信道传送的信号的设备。 编码器分为信源编码器和信道编码器两种。 3. 信道 信道是信息传输和存储的媒介,如光纤、电缆、无线电波等。 4. 译码器 译码器是编码器的逆变换,分为信道译码器和信源译码器。 5. 信宿 信宿是消息的接收者,可以是人,也可以是机器。 离散信源及其数学模型 离散信源—消息集X 为离散集合,即时间和空间均离散的信源。 连续信源—时间离散而空间连续的信源。波形信源—时间和空间均连续的信源。 无记忆信源—X 的各时刻取值相互独立。有记忆信源—X 的各时刻取值互相有关联。 离散无记忆信源的数学模型—离散型的概率空间: x i ∈{a 1,a 2,…,a k } 1≤i ≤I 0≤q(x i )≤1 离散无记忆N 维扩展信源的数学模型: x =x 1x 2…x N x i ∈{a 1,a 2,…,a k } 1≤i ≤N q (x )=q (x 1x 2 … x N )= 离散信道及其数学模型 离散信道—信道的输入和输出都是时间上离散、取值离散的随机序列。离散信道有时也称为数字信道。 连续信道—信道的输入和输出都是时间上离散、取值连续的随机序列,又称为模拟信道。 半连续信道—输入序列和输出序列一个是离散的,而另一个是连续的。 波形信道—信道的输入和输出都是时间上连续,并且取值也连续的随机信号。 无记忆信道—信道的输出y 只与当前时刻的输入x 有关。 有记忆信道—信道的输出y 不仅与当前时刻的输入x 有关,还与以前的输入有统计关系。

信息论基础》试卷(期末A卷

重庆邮电大学2007/2008学年2学期 《信息论基础》试卷(期末)(A卷)(半开卷) 一、填空题(本大题共10小空,每小空1分,共20分) 1.按信源发出符号所对应的随机变量之间的无统计依赖关系,可将离散信源分为有记忆信源和无记忆信源两大类。 2.一个八进制信源的最大熵为3bit/符号 3.有一信源X,其概率分布为 123 x x x X 111 P 244 ?? ?? ? = ?? ? ?? ?? ,其信源剩余度为94.64%;若对该信源进行十次扩展,则 每十个符号的平均信息量是 15bit。 4.若一连续消息通过放大器,该放大器输出的最大瞬间电压为b,最小瞬时电压为a。若消息从放大器中输出,则该信源的绝对熵是∞;其能在每个自由度熵的最大熵是log(b-a)bit/自由度;若放大器的最高频率为F,则单位时间内输出的最大信息量是 2Flog(b-a)bit/s. 5. 若某一信源X,其平均功率受限为16w,其概率密度函数是高斯分布时,差熵的最大值为1 log32e 2 π;与其 熵相等的非高斯分布信源的功率为16w ≥ 6、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 7、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r(S))。 8、当R=C或(信道剩余度为0)时,信源与信道达到匹配。 9、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。 10、在下面空格中选择填入数学符号“,,, =≥≤?”或“?” (1)当X和Y相互独立时,H(XY)=H(X)+H(X/Y)。 (2)假设信道输入用X表示,信道输出用Y表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)

信息论基础与编码课后题答案第三章

3-1 设有一离散无记忆信源,其概率空间为12()0.60.4X x x P x ???? =? ??? ???? ,信源发出符号通过一干扰信道,接收符号为12{,}Y y y =,信道传递矩阵为516 61344P ???? =? ?????? ? ,求: (1)信源X 中事件1x 和2x 分别含有的自信息量; (2)收到消息j y (j =1,2)后,获得的关于i x (i =1,2)的信息量; (3)信源X 和信宿Y 的信息熵; (4)信道疑义度(/)H X Y 和噪声熵(/)H Y X ; (5)接收到消息Y 后获得的平均互信息量(;)I X Y 。 解:(1)12()0.737,() 1.322I x bit I x bit == (2)11(;)0.474I x y bit =,12(;) 1.263I x y bit =-,21(;) 1.263I x y bit =-, 22(;)0.907I x y bit = (3)()(0.6,0.4)0.971/H X H bit symbol == ()(0.6,0.4)0.971/H Y H bit symbol == (4)()(0.5,0.1,0.1,0.3) 1.685/H XY H bit symbol == (/) 1.6850.9710.714/H X Y bit symbol =-= (/)0.714/H Y X bit symbol = (5)(;)0.9710.7140.257/I X Y bit symbol =-= 3-2 设有扰离散信道的输入端是以等概率出现的A 、B 、C 、D 四个字母。该信道的正 确传输概率为0.5,错误传输概率平均分布在其他三个字母上。验证在该信道上每个字母传输的平均信息量为0.21比特。 证明:信道传输矩阵为:

互信息凸性

互信息函数),(Q P I 的性质2的证明。 对于确定的条件概率矩阵Q 互信息函数),(Q P I 是概率矢量空间S 上的上凸函数。 (其中S ={P :P =(1p , 2p …, K p ), ,,...2,1,10K k p k =≤≤而∑==K k k p 1 1}) 证明:首先由定义知:),(Y X I =)(Y H -)(X Y H 其中 )(Y H =∑=- J j j j b p b p 1 )(log )( =∑∑∑===- J j k j K k k j k K k a b p a p b a p 11 1)()(log ),( =∑∑∑===- J j k j K k k k j k K k a b p a p a b p a p 1 1 1 )()(log )()( )(X Y H = ∑∑ ==-J j k j j k K k a b p b a p 1 1)/(log ),( =∑∑==- J j k j k j k K k a b p a b p a p 1 1 )/(log )()( 可知对于确定的Q ,)(Y H 和)(X Y H 都是S 上的函数,且)(X Y H 关于P 是线性的。 下面将证明)(Y H 是S 上的上凸函数。即对?1P ),...,,(11211K p p p =, 2P ),...,,(22221K p p p =∈S ,及λ,λ,.1,10λλλ-=≤≤ 成立 ∑∑∑ ===++-J j k j k k k k K k k j k k k j k k K k a b p a p a p a b p a p a b p a p 1 211 211 ) ()]()([log )]/()()()([λλλλ≥ ∑∑∑ ===-J j k j K k k k k j k k K k a b p a p a b p a p 1 1 111) ()(log )()(λ

信息管理学复习资料【重点】

管理信息学复习要点 第一章 科学的信息定义: 信息是对客观世界中各种事物的运动状态和变化的反映,是客观事物之间相互联系和相互作用的表征,表现的是客观事物运动状态和变化的实质内容。 信息的特征 客观性普遍性不完全性依附性价值性时效性可传递性可存储性可扩散性共享性可加工性有用性 数据、信息和知识 数据是客观记录、分类和存储,它不被用来传递任何特定意义。可以是数值、字符(串)、图、声音、图像/图片等。---语法信息 信息是被组织起来、对接受者有特定意义的数据。它可能是一些接受者知道的,也可能不知道但接受者自己能解释。---语义信息 知识通过对数据的加工、提取形成的有重要应用前景、能反映过去经验、具有价值性的数据。---语用信息 信息资源的三要素: 信息生产者:是为某种目的生产信息的劳动者,包括原始信息生产者、信息加工者或信息再生产者。 信息:既是信息生产的原料,也是信息生产的产品,是信息生产者的劳动成果,对社会各种活动直接产生效用,是信息资源的目标要素。 信息技术:是能够延长或扩展人的信息能力的各种技术的总称,是对声音、图像、文字等数据和各种传感信号的信息进行收集、加工、存储、传递和利用的技术。信息技术作为生产工具,对信息收集、加工、存储与传递提供支持与保障。 在信息资源中,信息生产者是最关键的因素,因为信息和信息技术都离不开人的作用,

信息是由人生产和消费的,信息技术也是由人创造和使用的。 信息资源的特征 信息资源作为经济资源的一种,它具有经济资源的共同特征即需求性、稀缺性和对象的选择性。信息资源作为一种独立存在的资源,它也有其自身特有的特征,如可共享性、无穷无尽性和驾驭性等。 信息科学 信息科学是研究信息运动规律和应用方法的科学,是由信息论、控制论、计算机、人工智能和系统论相互渗透相互结合而成的一门新兴综合性学科。其支柱为系统论、控制论和信息论。 信息论是信息科学的前导,是一门用数理统计方法研究信息的度量、传递和交换规律的科学。信息论的主要研究内容。 系统论是以一般系统为研究对象的理论。其创始人是美籍奥地利生物学家贝塔朗菲。系统论的主要思想。 控制论是研究控制系统的理论,其创始人是美国数学家维纳。控制论的基本原理。 信息技术 信息技术是关于信息的产生、发送、传输、接收、变换、识别、控制等应用技术的总称。其支柱为通讯技术、计算机技术和控制技术。包括信息基础技术、信息处理技术、信息应用技术和信息安全技术等。 信息管理的定义 信息管理是人们为了有效地开发和利用信息资源,以现代信息技术为手段,对信息资源进行计划、组织、领导和控制的社会活动。简单地说,信息管理就是人对信息资源和信息活动的管理。 信息管理的对象是信息资源和信息活动 信息管理是管理活动的一种 信息管理也是一种社会规模的管理活动

信息论基础答案2

《信息论基础》答案 一、填空题(共15分,每空1分) 1、若一连续消息通过某放大器,该放大器输出的最大瞬时电压为b ,最小瞬时电压为a 。若消息从放大器中输出,则该信源的绝对熵是 无穷大 ;其能在每个自由度熵的最大熵是 ()log b-a 。 2、高斯白噪声信道是指 信道噪声服从正态分布,且功率谱为常数 。 3、若连续信源的平均功率为5 W ,则最大熵为12log10π ? e ,达到最大值的条件是 高斯信道 。 4、离散信源存在剩余度的原因是 信源有记忆(或输出符号之间存在相关性) 和 不等概 。 5、离散无记忆信源在进行无失真变长信源编码时,编码效率最大可以达到 1 。 6、离散无记忆信源在进行无失真变长信源编码时,码字长度是变化的。根据信源符号的统计特性,对概率大的符号用 短 码,对概率小的符号用 长 码,这样平均码长就可以降低,从而提高编码效率。 7、八进制信源的最小熵为 0 ,最大熵为 3 bit 。 8、一个事件发生概率为,则自信息量为 3 bit 。 9、在下面空格中选择填入数字符号“,,,=≥≤>”或“<” ()H XY = ()()+H Y H X Y ≤ ()()+H Y H X 二、判断题(正确打√,错误打×)(共5分,每小题1分) 1) 离散无记忆等概信源的剩余度为0。 ( √ ) 2) 离散无记忆信源N 次扩展源的熵是原信息熵的N 倍 ( √ ) 3) 互信息可正、可负、可为零。 ( √ ) 4) 信源的真正功率P 永远不会大于熵功率P ,即P P ≤ ( × ) 5) 信道容量与信源输出符号的概率分布有关。 ( × ) 三、(5分)已知信源的概率密度函数()p x 如下图所示,求信源的相对熵

信息论期末复习

第二章 信源熵 一、自信息量 1. 定义:一个随机事件发生某一结果后所带来的信息量称为自信息量,简称自信息。定 义为其发生概率对数的负值。若随机事件发生i a 的概率为)(i a p ,那么它的自信 息量为:)(log )(2i i a p a I -= (bit ) 2. 性质:在事件发生前,)(i a I 表示该事件发生的不确定性。 在事件发生后,)(i a I 表示事件发生所提供的信息量。 二、信源熵 1. 定义: 已知单符号离散无记忆信源的数学模型 我们定义信源各个离散消息的自信息量的数学期望为信源的平均信息量,一般称为信 源的平均信息量: )(log )(])(1[log )]([)( 212i n i i i i a p a p a p E a I E X H ∑=-=== 2. 信源熵与平均自信息量之间的区别 两者在数值上是相等的,但含义不同。信源熵表征信源的平均不确定度,平均自信息量是消除不确定度所需要的信息的度量。信源一定,不管它是否输出离散消息,只要这些离散消息具有一定的概率特性,必有信源的熵值,该熵值在总体平均的意义上才有意义,因而是一个确定值, 。在离散信源的情况下,信源熵的值是有限的。而信息量只有当信源输出离散消息并被接收后,才有意义,这就是给予接收者的信息度量。 3. 最大离散熵定理:信源X 中包含n 个不同离散消息时,信源熵H(X)有: n X H 2log )(≤ 当且仅当X 中各个消息出现的概率全相等时,上式取等号。 4. 扩展信源的信源熵:N 次扩展信源的信源熵:)()(X NH X H N = )(,),(,),(),( , , , , ,)( 2121? ?????=??????n i n i a p a p a p a p a a a a X P X

信息论基础1答案

信息论基础1答案

《信息论基础》答案 一、填空题(本大题共10小空,每小空1分,共20分) 1.按信源发出符号所对应的随机变量之间的无统计依赖关系,可将离散信源分为有记忆信源和无记忆信源两大类。 2.一个八进制信源的最大熵为3bit/符号 3.有一信源X ,其概率分布为 123x x x X 111P 2 44?? ?? ?=?? ??? ?? , 其信源剩余度为94.64%;若对该信源进行十次扩展,则每十个符号的平均信息量是 15bit 。 4.若一连续消息通过放大器,该放大器输出的最大瞬间电压为b ,最小瞬时电压为a 。若消息从放大器中输出,则该信源的绝对熵是 ∞ ;其能在每个自由度熵的最大熵是log (b-a ) bit/自由度;若放大器的最高频率为F ,则单位时间内输出的最大信息量是 2Flog (b-a )bit/s. 5. 若某一 信源X ,其平均功率受限为

16w,其概率密度函数是高斯分布时,差熵的 最大值为1log32e π;与其熵相等的非高斯分布信2 源的功率为16w ≥ 6、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 7、无失真信源编码的平均码长最小理论极限 (S))。 制为信源熵(或H(S)/logr= H r 8、当R=C或(信道剩余度为0)时,信源与信道达到匹配。 9、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。 10、在下面空格中选择填入数学符号“,,, =≥≤?”或“?” (1)当X和Y相互独立时,H(XY)=H(X)+H(X/Y)。 (2)假设信道输入用X表示,信道输出用Y 表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)

学科导论学习报告

学科导论学习报告

目录 目录 (2) 学科导论学习报告 (3) (1)对电子通信学科的认识 (3) ①对学科的简介: (3) ②培养方向: (4) ③培养目标: (4) ④就业方向: (5) ⑤主要课程: (5) ⑥专业特点: (5) (2)对学科导论课程的评价与认识 (5) ①优点: (6) ②不足与改进: (6) (3)有关本专业新技术——NGN新技术的简述。 (7) ①基本简介: (7) ②主要技术: (7) ③特点: (9) (4)通过学习后的心得体会: (9) ①学习方法的改进: (10) ②我的简单职业生涯规划: (10) 1.学业为主 (10) 2.学业家庭并重: (11) 3.家庭为主: (11) 4.学习上的目标 (11) 5具体三年规划 (11) 6.短期计划: (12) 7.大学四年最终目标 (12)

学科导论学习报告 每周二晚上尽管时间很匆忙,仍然坚持对学科导论的学习。尽管学习的时间很短,但通过对本专业《学科导论》的学习,我不仅仅对信息工程专业有了更深的了解,更重要的是对本专业有了融厚的兴趣以及掌握了一些有用的学习方法。我相信会为我以后的学习,给以很大的帮助。同时给我在成就美丽人生的路上,倍添了信心。 (1)对电子通信学科的认识 通过课程的学习以及网上查找资料,我得到相关的认识如下:本专业是建立在超大规模集成电路技术和现代计算机技术基础上,研究信息处理理论、技术和工程实现的专门学科。该专业以研究信息系统和控制系统的应用技术为核心,在面向21世纪信息社会化的过程中具有十分重要的地位。 在课堂上老师介绍了信息科学与技术导论,其中详细包括了大科学观,信息基础,信息获取,信息传递,信息处理,信息执行,学科关系,学习方法,未来趋势,放眼社会。对科学、技术、信息等词语都做出了详细的解释以及生动的举例。技术,也叫工艺学,是人类创造的关于如何认识自然和如何改造自然的工艺方法体系,它从实践过程中被人们逐渐总结出来,或在科学理论指导下被人们发明出来,经过实践的检验而得到确认和应用。 这些使我了解了很多,同时激励我不断地对问题思考与总结。 ①对学科的简介:

信息论基础及答案

《信息论基础》试卷答案 一、填空题(共25分,每空1分) 1、连续信源的绝对熵为 无穷大。(或()()lg lim lg p x p x dx +∞ -∞?→∞ --??) 2、离散无记忆信源在进行无失真变长信源编码时,编码效率最大可以达到 1 。 3、无记忆信源是指 信源先后发生的符号彼此统计独立 。 4、离散无记忆信源在进行无失真变长编码时,码字长度是变化的。根据信源符号的统计特性,对概率大的符号用 短 码,对概率小的符号用 长 码,这样平均码长就可以降低,从而提高 有效性(传输速率或编码效率) 。 5、为了提高系统的有效性可以采用 信源编码 ,为了提高系统的可靠性可以采用 信道编码 。 6、八进制信源的最小熵为 0 ,最大熵为 3bit/符号 。 7、若连续信源输出信号的平均功率为1瓦特,则输出信号幅度的概率密度函数为 高斯分布(或()0,1x N 2 2 x -)时,信源具有最大熵,其值为 0.6155hart(或1.625bit 或1lg 22 e π)。 8、即时码是指 任一码字都不是其它码字的前缀 。 9、无失真信源编码定理指出平均码长的理论极限值为 信源熵(或H r (S)或()lg H s r ),此时编码效率为 1 ,编码后的信息传输率为 lg r bit/码元 。 10、一个事件发生的概率为0.125,则自信息量为 3bit/符号 。 11、信源的剩余度主要来自两个方面,一是 信源符号间的相关性 ,二是 信源符号概率分布的不均匀性 。 12、m 阶马尔可夫信源的记忆长度为 m+1 ,信源可以有 q m 个不同 的状态。 13、同时扔出一对均匀的骰子,当得知“两骰子面朝上点数之和为2”所获得的信息量为 lg36=5.17 比特,当得知“面朝上点数之和为8”所获得的信息量为 lg36/5=2.85 比特。 14.在下面空格中选择填入的数学符号“=,≥,≤,>”或“<” H(XY) = H(Y)+H(X ∣Y) ≤ H(Y)+H(X)

广义信息熵的推广与应用

青岛农业大学 本科生课程论文 论文题目广义信息熵的推广与应用 学生专业班级信息与计算科学09级02班学生姓名(学号)(20094052) 指导教师吴慧 完成时间 2012年6月28日 2012 年 6 月 28 日

课程论文任务书 学生姓名指导教师吴慧 论文题目广义信息熵的推广与应用 论文内容:本文先介绍了Shannon 信息熵的定义,并对其进行了一 定的分析,介绍了它的一些基本性质。其次,说明Shannon 熵的局 限性,以此引出了广义信息熵。然后对常用的Renyi 熵、Tsallis 熵 进行讨论,说明它们与Shannon 熵的联系。最后介绍了广义熵在实 际生活中的应用。 资料、数据、技术水平等方面的要求:论文要符合一般学术论文的写 作规范,具备学术性、科学性和一定的创造性。文字要流畅、语言要 准确、论点要清楚、论据要准确、论证要完整、严密,有独立的观点 和见解。涉及到他人的观点、统计数据或计算公式等要标明出处,结 论要写的概括简短。 发出任务书日期 2012-6-5 完成论文日期 2012-6-19 教研室意见(签字) 院长意见(签字)

广义信息熵的推广与应用 信息与计算科学 指导教师吴慧 摘要:本文先介绍了Shannon 熵,由Shannon 熵推广到一般的广义信息熵,使其适用范围更广。然后在Shannon 熵的基础上介绍了两种最常用的广义信息熵:Renyi 熵和Tsallis 熵,说明了这两种广义信息熵的简单性质,以及与Shannon 熵的联系和性质上的差异。最后介绍了广义熵在实际生活中的应用。 关键词:Shannon 熵;广义信息熵;应用 The promotion and application of the generalized information entropy Student majoring in Information and Computing Science ZhuMeng Tutor WuHui Abstract:At the beginning of this article it introduced the Shannon entropy.Then, it described the two most commonly used generalized information entropy: Renyi entropy and Tsallis entropy on the basis of the Shannon entropy.What is more,this article not only described the simple nature of the generalized information entropy but also described their contact with the Shannon entropy as well as the different nature between them.Finally, it introduced the application of the generalized entropy in real life. Keywords: Shannon entropy; generalized information entropy; application

最新高中信息科技会考总复习知识点整理后

信息科技基础知识梳理 第一章信息与信息技术 1. 东西”。 2.人类社会赖以生存和发展的三大资源:信息、物质、能源。 3.常用的信息技术:通信技术、计算技术、感测技术、控制技术 4.信息载体:在信息传播中携带信息的媒介,是信息赖以附载的物质基础。 5.信息的主要特征:普遍性、依附性、价值性、共享性、可处理性、时效性等。 6.信息处理的工具:算盘、电报、电话、计算机等。计算机是常见的信息处理工具。 7.信息处理的一般过程是指信息收集、信息存储、信息加工、信息发布。 8.信息处理的一般要求:信息的获取要全面、信息的加工要准确、信息的表达要规范、信息的传输要 安全。 9.计算机作为常见的信息处理工具的特征:高速、自动、准确。 10.信息技术:简称IT,指在信息的获取、整理、加工、存储、传递、和利用过程职工采用的技术和方 法。 11.常见的代替人的信息功能的信息技术有:感测与识别技术、计算与智能技术、通信技术、存储技术、 控制与显示技术。 12.现代信息技术:以电子技术,尤其是以微电子技术为基础,以计算机技术为核心、以通信技术为支 柱,以信息技术应用为目的的科学技术群。 13.现代信息技术的发展趋势:数字化、智能化、网络化、个性化。 14.信息技术的五次革命: (1)语言的产生。揭开了人类文明的序幕,是信息表达和交流手段的一次关键性革命,大大提高了信息的表达质量和利用效率。 (2)文字的发明。突破了时空的限制,使人类可以跨越时间、地域传递和交流信息。 (3)造纸术和印刷术的发明。使知识的积累和传播有了可靠的保障,使信息传递到世界各个角落成为可能,为人类的近代文明奠定了基础。 (4)电报、电话、广播、电视的发明和普及应用。使得人们在传递信息方面获得了更大的自由,使

相关主题
文本预览
相关文档 最新文档