首页 理论教育 度量信息的重要性

度量信息的重要性

时间:2023-06-23 理论教育 版权反馈
【摘要】:信息是有大小的,是可以度量的。注意:当信源各种符号等概出现,即P=1/M时,信源熵达到最大值Hmax=log2Mbit/符号,数值上等于单个符号携带的信息量。例如,当M=2时,为二进制信源,Hmax=1bit/符号,即每个二进制符号携带1bit信息;当M=4时,为四进制信源,Hmax=2bit/符号,即每个四进制符号携带2bit信息。

度量信息的重要性

1.信息量的定义

信息是消息中包含的有意义的内容。信息是有大小的,是可以度量的。消息中含有的信息量的大小与消息出现的概率有关,具体表现为:

1)消息出现的概率越小,所包含的信息量就越大。

2)消息出现的概率为1,则包含的信息量为0。

3)不可能出现的消息,所包含的信息量为无穷大

所以,香农给出的信息量的定义为

式中,Ps)是消息s出现的概率;Is)是消息s携带的信息量,其单位:a=2时,为比特(bit),a=e时,为奈特(nat),a=10时,为哈特(hat)。在通信和计算机中常用的单位为比特。

2.信源的信息熵

设有信源S输出M种离散符号,各种符号的出现概率为Psi),且统计独立,即信源是无记忆的,则每个符号平均(统计平均)携带的信息量为(www.xing528.com)

式中,Ps)是消息s出现的概率;Is)是消息s携带的信息量,其单位:a=2时,为比特(bit),a=e时,为奈特(nat),a=10时,为哈特(hat)。在通信和计算机中常用的单位为比特。

2.信源的信息熵

设有信源S输出M种离散符号,各种符号的出现概率为Psi),且统计独立,即信源是无记忆的,则每个符号平均(统计平均)携带的信息量为

式中,HS)为信源S的熵,可简写为H,其单位为bit/符号。

注意:当信源各种符号等概出现,即Psi)=1/M时,信源熵达到最大值Hmax=log2Mbit/符号,数值上等于单个符号携带的信息量。例如,当M=2时,为二进制信源,Hmax=1bit/符号,即每个二进制符号携带1bit信息;当M=4时,为四进制信源,Hmax=2bit/符号,即每个四进制符号携带2bit信息。

式中,HS)为信源S的熵,可简写为H,其单位为bit/符号。

注意:当信源各种符号等概出现,即Psi)=1/M时,信源熵达到最大值Hmax=log2Mbit/符号,数值上等于单个符号携带的信息量。例如,当M=2时,为二进制信源,Hmax=1bit/符号,即每个二进制符号携带1bit信息;当M=4时,为四进制信源,Hmax=2bit/符号,即每个四进制符号携带2bit信息。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈