\[ H(Y|X)=\sum_{x\in X} p(x)H(Y|X=x) \]spa
或者寫成這樣數學
\[ H(Y|X)=\sum_{i=1}^{n} p(x_i)H(Y|X=x_i) \]it
這裏 \(n\) 表示隨機變量 \(X\) 取值的個數,無論是條件熵仍是熵,都是計算 \(Y\) (能夠理解爲因變量)的熵,\(H(Y|X)\) 能夠理解爲在已知一些信息的狀況下,因變量 \(Y\) 的不純度,即在
\(X\) 的劃分下,\(Y\) 被分割愈來愈「純」的程度,即信息的加入能夠下降熵。io
這裏又假設隨機變量 \(Y\) 有 \(m\) 個取值,將 \(H(Y|X=x_i)\) 用定義式
\[H(Y|X=x_i) = - \sum_{j=1}^{m} p(y_j|X=x_i)\log p(y_j|X=x_i)\] 代入上式,得class
\[ \begin{equation}\begin{split} H(Y|X)&=\sum_{i=1}^{n} p(x_i)H(Y|X=x_i) \\ &=\sum_{i=1}^{n} p(x_i)\left(- \sum_{j=1}^{m} p(y_j|X=x_i) \log p(y_j|X=x_i)\right)\\ &=-\sum_{i=1}^{n}p(x_i) \sum_{j=1}^{m} p(y_j|x_i) \log p(y_j|x_i) \end{split}\end{equation} \]變量
即
\[ H(Y|X)=\sum_{i=1}^{n} p(x_i)H(Y|X=x_i) =-\sum_{i=1}^{n}p(x_i) \sum_{j=1}^{m} p(y_j|x_i) \log p(y_j|x_i) \]di