全球专业中文经管百科,由121,994位网友共同编写而成,共计435,843个条目

離散信源

用手机看条目

出自 MBA智库百科(https://wiki.mbalib.com/)

離散信源(Discrete Information Source)

目錄

什麼是離散信源[1]

  離散信源是指信源輸出符號為離散隨機變數的信源。

  設離散信源輸出隨機變數X的值域R為一離散集合R={a_1,a_2,\cdots,a_n},其中,n可以是有限正數,也可以是可數的無限大正數。若已知R上每一消息發生的概率分佈為

P(a_1),P(a_2),\cdots,P(a_n)

  則離散信源X的概率空間

[R,P]=[X,P]=\begin{bmatrix} a_1 & a_2 & \cdots & a_n \\ P(a_1) & P(a_2) & \cdots & P(a_n) \end{bmatrix}

  其中,信源輸出消息的概率P(a_i)(i=1,2,\cdots,n)滿足:

\begin{cases}P(a_i) \ge 0,i=1,2,\cdots,n\\\sum^n_{i=1}P(a_i)=1 \end{cases}

離散信源的信息量[2]

  離散信源產生的消息狀態是可數的或者離散的,離散消息中所包含的信息的多少(即信息量)應該怎麼樣來衡量呢?

  經驗告訴人們,當某個消息出現的可能性越小的時候,該消息所包含的信息量就越多。消息中所包含的信息的多少與消息出現的概率密切相關。

  為此,哈特萊首先提出了信息的度量關係。

  對於離散消息xi來講,其信息量I可表示為

I=log_a \frac{1}{p(x_i)}

  其中,p(xi)表示離散消息xi出現的概率。

  根據a的取值不同,信息量的單位也不同。當a取2時,信息量的單位為比特(bit);當a取e時,信息量的單位為奈特;當a取10時,信息量的單位為哈特萊。通常口的取值都是2,即用比特作為信息量的單位。

離散信源的熵[2]

  當離散消息中包含的符號比較多時,利用符號出現概率來計算該消息中的信息量往往是比較麻煩的。為此,可以用平均信息量(H)來表徵,即

H(X)=- \sum^m_{i=1}p(x_i)log_2 p(x_i)

  其中,m表示消息中的符號個數。

離散信源的分類[3]

  根據輸出符號問的依賴關係,離散信源可以分為無記憶信源和有記憶信源,輸出符號間相互獨立的稱為無記憶信源,而輸出符號之間具有相關性的,稱為有記憶信源。最簡單的無記憶信源的例子就是擲骰子試驗,其中每次拋擲結果都獨立於其他拋擲結果。如果骰子是均勻的,那麼我們就認為每次拋擲出現某點數的概率是相等的,即等於1/6。有記憶信源的最典型的例子就是自然語言。例如,書寫的文章或講話中每一個詞或字、字母都和它前後的符號有關。最簡單的有記憶信源就是馬爾可夫信源,自然語言可以用馬爾可夫信源近似。

  統計特性不隨時問起點改變的信源稱為平穩信源,反之稱為非平穩信源。

參考文獻

  1. 平西建,童莉,鞏克現等編著.資訊理論與編碼.西安電子科技大學出版社,2009
  2. 2.0 2.1 張玉平主編.通信原理與技術.化學工業出版社,2009
  3. 田寶玉,楊潔,賀志強等編著.資訊理論基礎.人民郵電出版社,2008
本條目對我有幫助3
MBA智库APP

扫一扫,下载MBA智库APP

分享到:
  如果您認為本條目還有待完善,需要補充新內容或修改錯誤內容,請編輯條目投訴舉報

本条目由以下用户参与贡献

KAER,Tracy.

評論(共0條)

提示:評論內容為網友針對條目"離散信源"展開的討論,與本站觀點立場無關。

發表評論請文明上網,理性發言並遵守有關規定。

打开APP

以上内容根据网友推荐自动排序生成

下载APP

闽公网安备 35020302032707号