- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
离散信源。可用离散随机变量来描述。
多符号离散信源 涉及多个随机事件的离
散信源。可用随机矢量来描述。 连续信源 输出连续消息的信源。可用随
机过程来描述。
信 源分类
离 散 信 源 单符号
随机变量
信源
连 续 信 源
多符号
随机矢量 随机过程
对于离散随机变量,取值于集合
a1
, a2 , , ai , , an
p(ai / b j ) p(b j ) p(ai ) p(b j )
p(ai b j ) / p(ai )
2 当X和Y相互独立时,互信息为0
I (ai ; b j ) log2 p(ai b j ) p(ai ) p(b j ) log2 p(ai ) p(b j ) p(ai ) p(b j ) log2 1 0
这表明从b1分别得到了a2、a3、a4各1bit的 信息量。也可以理解为消息b1使a2、a3、 a4的不确定度各减少了 bit。 1
I (ai ; b j ) log p(ai ) log p(ai b j ) I (ai ) I (ai b j ) (2.1.8)
两个不确定度之差,是不确定度被消 除的部分,代表已经确定的东西。 实际是从b j 得到的关于ai的信息量。
(i 1,2,, n; j 1,2,, m)
例[2.1.2]
继续讨论第一节的例题,即
某地二月份天气构成的信源为
a1 (晴), a2 (阴), a3 (雨), a4 (雪) X 1 1 1 P( X ) 1 , , , 2 4 8 8
3 条件自信息量 条件概率对数的负值
I (ai b j ) log p(ai b j ) I (b j ai ) log p(b j ai )
(2.1.6a) (2.1.6b)
不确定度表示含有多少信息,信 息量表示随机事件发生后可以得到多 少信息。
联合自信息量和条件自信息也满 足非负和单调递减性 ,同时,它们也 都是随机变量,其值随着变量 xi、y j 的变化而变化。 自信息量、条件自信息量和联合 自信息量之间有如下关系式:
X a1 , a2 , , ai , , an P( X ) p(a ), p(a ), , p(a ), , p(a ) 1 2 i n
0 p( xi ) 1,
p( x ) 1
i 1 i
n
信宿Y的数学模型为
Y b1 , b 2 , , b j , , b m P(Y ) p(b ), p(b ), , p(b ), , p(b ) 2 j m 1
无条件概率、条件概率、联合概 率满足下面一些性质和关系: 1 0 p(ai )、p(b j )、p(b j ai )、p(ai b j )、p(aib j ) 1 2
n m m
p(a ) 1, p(b ) 1, p(b
i 1 n i j 1 j j 1
j
ai ) 1,
5
当X与Y相互独立时
p(ai b j ) p(ai ) p(b j ) p(b j ai )=p(b j ),p(ai b j )=p(ai )
6
p(ai b j )=
p(aib j )
p(a b )
i 1 i j
n
,p(b j ai )
p(aib j )
p(a b )
j 1 i j
3 互信息量可为正值或负值
当互信息量为负时,说明信宿收到 b j 后 不仅没有使 a i 的不确定度减小,反而增大。 这是通信受到干扰或发生错误所造成的。
I (a3 ) 3bit, (a4 ) 3bit。 I
自信息量具有下列性质:
1 I ( ai )是非负值。
图2.1.1
对数曲线
2 当p(ai ) 1时,I (ai ) 0
3 当p(ai ) 0时,I (ai )
4
I (ai )是p(ai )的单调递减函数。
值得注意的是:ai是一个随机量,
而I (ai )是ai的函数,所以自信息量也 是一个随机变量,它没有确定的值。
2 联合自信息量
XY P( XY )
a1b1 , , a1bm , , anb1 , , anbm p(a1b1 ), , p(a1bm ), , p(anb1 ), , p(anbm ) 其中 0 p(ai b j ) 1(i 1,2,, n; j 1,2,, m),
p(a ) 1
i 1 i
n
(2.1.2)
需要注意 的是:大写字母X、
Y、Z 代表随机变量,指的是信源整
体。带下标的小写字母: ai、bk、cl ,
代表随机事件的某一结果或信源的某
个元素。两者不可混淆。
§2.1.1 单符号离散信源的数学模型
§2.1.2 自信息和信源熵
§2.1.3 信源熵的基本性质和定理 §2.1.4 加权熵的概念和基本性质
同样的道理,可定义ai 对b j的互信息量为
I (b j ; ai ) log
p(b j ai ) p(b j )
I (b j ) I (b j ai ) (2.1.9)
(i 1,2,, n; j 1,2,, m)
物理解释:
通信前
发送
接收
“输入端出现ai 和输出端出现b j ”的概率 p(ai b j ) p(ai ) p(b j )
§2.1.5 平均互信息
§2.1.6 各种熵之间的关系
随机变量X、Y分别取值于集合
{a1 , a2 ,, ai ,, an }、 1 , b2 ,, b j ,, bm }。 {b
联合随机变量 XY 取值于集合
{ai b j | i 1,2,, n, j 1,2,, m},
记 p(ai b j ) P( X ai , Y b j )
第1章:概述
第2章:信源熵
第3章:信道容量 第4章:信息率失真函数
第5章:信源编码
第6章:信道编码 第7章:密码体制的安全性测度
§2.1 单符号离散信源
§2.2 多符号离散信源 §2.3 连续信源 §2.4 离散信源无失真编码定理
信息论是在信息可以度量的前提下,研究 有效地、可靠地、安全地传输信息的科学。 信息度量的方法有:结构度量、统计度 量、语义度量、语用度量、模糊度量等等。 最常用的方法是统计度量。它用事件统计发 生概率的对数描述事物的不确定性,得到消 息的信息量,建立熵的概念。熵概念是香农 信息论最基本最重要的概念。
0 p(b j ) 1,
信源X
p(b ) 1
j 1 j
m
有扰信道C
信宿Y
干扰源N
图2.1.3
简单通信系统模型
后验概率 p(ai / bj ) 先验概率 p(ai )
定义b j 对ai的互信息量为 I (ai ; b j ) log p(ai b j )
p(ai )
(2.1.7)
m
一、信息量
信息量
自信息量
联合 自信息量
条件 自信息量
1 自信息量:一个随机事件发生后所 带来的信息量
I (ai ) log p(ai )
( 2.1.3)
单位:比特(2为底)、奈特、笛特(哈特) 三个信息单位之间的转换关系如下:
1Hart log 2 10 3.322bit
1nat log 2 e 1.433bit
§2.1.1 单符号离散信源的数学模型
§2.1.2 自信息和信源熵
§2.1.3 信源熵的基本性质和定理
§2.1.4 加权熵的概念和基本性质 §2.1.5 平均互信息
§2.1.6 各种熵之间的关系
离散信源
信源输出的是一个个符号,这
些符号的取值是有限的或可数的。 单符号离散信源 只涉及一个随机事件的
p(a
i 1
i
b j ) 1, p(ai b j ) 1
j 1 i 1
m
n
3
p(a b ) p(b ), p(a b ) p(a )
i 1 i j j j 1 i j i
n
m
4
p(aib j ) p(b j ) p(ai b j ) p(ai ) p(b j ai )
某地二月份天气的概率分
布统计如下:
a1 (晴), a2 (阴), a3 (雨), a4 (雪) X 1 1 1 P( X ) 1 , , , 2 4 8 8
这四种气候的自信息量分别为 : I (a1 ) 1 bit,I (a2 ) 2bit,
一天有人告诉你:今天不是晴天。 把这句话作为收到的消息 y1
当收到y1后,各种天气发生的概
率变成后验概率了。其中
p(a1 b1 ) 0,
1 p(a3 b1 ) , 4
1 p(a2 b1 ) , 2 1 p(a4 b1 ) 。 4
依据式(2.1.7),可以计算出b1与各 种天气之间的互信息量。
先验不定度(联合自信息量)
1 I (ai b j ) log p(ai ) p(b j )
通信后
发送
接收
输入输出端的联合概率
p(ai b j ) p(ai ) p(b j ai ) p(b j ) p(ai b j )
后验不定度
1 I (ai b j ) log p(ai b j )
2 互信息的性质 1
对称性
I (ai ; b j ) I (b j ; ai )
I (ai ; b j ) log2 log2 log2 p(ai / b j ) p(ai ) p(b j ) p(b j / ai ) p(b j ) I (b j ; ai ) log2