互信息(Mutual Information)是度量兩個事件集合之間的相關性(mutual depe

互信息(Mutual Information)是度量兩個事件集合之間的相關性(mutual dependence)html

 

平均互信息量定義:函數


互信息

 

 

互信息量I(xi;yj)在聯合機率空間P(XY)中的統計平均值。 平均互信息I(X;Y)克服了互信息量I(xi;yj)的隨機性,成爲一個肯定的量。url


平均互信息量的物理含義spa

互信息

 

1 觀察者站在輸出端:orm

H(X/Y) —信道疑義度/損失熵.Y關於X的後驗不肯定度。表示收到變量Y,對隨機變量X仍然存在的不肯定度。表明了在信道中損失的信息。htm

H(X) X的先驗不肯定度/無條件熵。blog

I(X;Y)—收到Y先後關於X的不肯定度減小的量。從Y得到的關於X的平均信息量。事件

 

2)觀察者站在輸入端:get

H(Y/X)—噪聲熵。表示發出隨機變量X, 對隨機變量Y仍然存在的平均不肯定度。若是信道中不存在任何噪聲, 發送端和接收端必存在肯定的對應關係, 發出X後必能肯定對應的Y, 而如今不能徹底肯定對應的Y, 這顯然是由信道噪聲所引發的。it

I(Y;X) —發出X先後關於Y的先驗不肯定度減小的量.

 

3)觀察者站在通訊系統整體立場上:

H(XY)—聯合熵.表示輸入隨機變量X, 經信道傳輸到達信宿, 輸出隨機變量Y。即收,發雙方通訊後,整個系統仍然存在的不肯定度.

 

I(X;Y) —通訊先後整個系統不肯定度減小量。在通訊前把XY當作兩個相互獨立的隨機變量, 整個系統的先驗不肯定度爲XY的聯合熵H(X)+H(Y); 通訊後把信道兩端出現XY當作是由信道的傳遞統計特性聯繫起來的, 具備必定統計關聯關係的兩個隨機變量, 這時整個系統的後驗不肯定度由H(XY)描述。

 

以上三種不一樣的角度說明: 從一個事件得到另外一個事件的平均互信息須要消除不肯定度,一旦消除了不肯定度,就得到了信息。

 

平均互信息量的性質

 

對稱性

I(X;Y)= I(Y;X)

Y提取到的關於X的信息量與從X中提取到的關於Y的信息量是同樣的。 I(X;Y) I(Y;X)只是觀察者的立足點不一樣。

 

非負性

I(X;Y)0

平均互信息量不是從兩個具體消息出發, 而是從隨機變量XY的總體角度出發, 並在平均意義上觀察問題, 因此平均互信息量不會出現負值。

或者說從一個事件提取關於另外一個事件的信息, 最壞的狀況是0, 不會因爲知道了一個事件,反而使另外一個事件的不肯定度增長。

 

極值性

I(X;Y)H(X)

I(Y;X)H(Y)

從一個事件提取關於另外一個事件的信息量, 至可能是另外一個事件的熵那麼多, 不會超過另外一個事件自身所含的信息量。

 

XY是一一對應關係時: I(X;Y)=H(X), 這時H(X/Y)=0。從一個事件能夠充分得到關於另外一個事件的信息, 從平均意義上來講, 表明信源的信息量可所有經過信道。

 

XY相互獨立時: H(X/Y) =H(X), I(Y;X)=0 從一個事件不能獲得另外一個事件的任何信息,這等效於信道中斷的狀況。

 

凸函數性

 

平均互信息量是p(xi)p(yj /xi)的函數,I(X;Y)=f [p(xi), p(yj /xi)];

若固定信道,調整信源, 則平均互信息量I(X;Y)p(xi)的函數,I(X;Y)=f [p(xi)];

若固定信源,調整信道, 則平均互信息量I(X;Y)p(yj /xi)的函數,I(X;Y)=f [p (yj /xi)]

 

平均互信息量I(X;Y)是輸入信源機率分佈p(xi)的上凸函數(concave function; or convext cap function)

平均互信息量I(X;Y)是輸入轉移機率分佈p(yj /xi)的下凸函數(convext function; or convext cup function)

 

數據處理定理

 

串聯信道

在一些實際通訊系統中, 經常出現串聯信道。例如微波中繼接力通訊就是一種串聯信道.

信宿收到數據後再進行數據處理, 數據處理系統可當作一種信道, 它與前面傳輸數據的信道構成串聯信道。

 

數據處理定理:當消息通過多級處理後,隨着處理器數目的增多,輸入消息與輸出消息之間的平均互信息量趨於變小。即

I(X;Z)I(X;Y)

I(X;Z)I(Y;Z)

其中假設Y條件下XZ相互獨立。

 

兩級串聯信道輸入與輸出消息之間的平均互信息量既不會超過第Ⅰ級信道輸入與輸出消息之間的平均互信息量,也不會超過第Ⅱ級信道輸入與輸出消息之間的平均互信息量。

 

當對信號/數據/消息進行多級處理時, 每處理一次, 就有可能損失一部分信息, 也就是說數據處理會把信號/數據/消息變成更有用的形式, 可是毫不會創造出新的信息。這就是所謂的信息不增原理。

 

當已用某種方式取得Y, 無論怎樣對Y進行處理, 所得到的信息不會超過I(X;Y)。每處理一次, 只會使信息量減小, 至多不變。也就是說在任何信息流通系統中, 最後得到的信息量,至可能是信源提供的信息。一旦在某一過程當中丟失了一些信息, 之後的系統無論怎樣處理, 若是不能接觸到丟失信息的輸入端, 就不能再恢復已丟失的信息。

相關文章
相關標籤/搜索