全概公式和貝葉斯公式的理解

條件機率機器學習

首先,理解這兩個公式的前提是理解條件機率,所以先複習條件機率。學習

P(A|B)=P(AB)P(B)
理解這個能夠從兩個角度來看。
第一個角度:在B發生的基礎上,A發生的機率。那麼B發生這件事已是個基礎的條件了,如今進入B已經發生的世界,看看A發生的機率是多少。那麼分子就是B發生A也發生,分母就是B這個世界發生的機率了。分母若是是1,那麼成了什麼意思呢?人工智能

另外一個角度是看韋恩圖。這裏A在B發生的基礎上發生的機率是A和B交集的陰影部分面積佔用B的比例。事件

那麼由條件機率出發,看一下變形出來的乘法公式:
P(AB)=P(A)⋅P(B|A)=P(B)⋅P(A|B)
也能夠提供上面的兩個角度來理解這個公式,雖然能夠由上面的直接推導,可是咱們認爲這是問題的思考的不一樣角度,不單單是公式之間的運算。基礎

一:AB同時發生的機率是在A基礎上發生B的機率乘以A自己在外部發生的機率,也是B基礎上發生A的機率乘以B自己在外部發生的機率.
二:AB表示的是陰影部分的面積佔用A或者B的比例關係。date

僅僅從形式上說,豎線後面的要在前面多乘以一個以達到平衡。時間

全機率思考

而後再看全機率公式。分割

一個別人舉的例子:

一個村子與三個小偷,小偷偷村子的事件兩兩互斥,求村子被偷的機率。
解釋:假設這三個小偷編號爲A1,A2,A2;
偷東西的事件標記爲B,不偷的話標記爲:B¯¯¯
那麼被偷的機率就是:要麼是A1,要麼是A2,要麼是A3,
若是是A1, 機率是什麼呢?首先得是A1,其次是村子被偷,也便是兩個事件都知足,因此是P(A1B)
同理,能夠獲得P(A2B),P(A3B)
又因這三個小偷兩兩互斥,表示不會同時去偷。因此被偷的機率是:

P(B)=P(A1B)+P(A2B)+P(A3B)
固然按照條件機率或者乘法公式展開:
P(B)=P(A1)P(B|A1)+P(A2)P(B|A2)+P(A3)P(B|A3) (*)

PS: P(Ai),P(B|Ai)是已知的
問:是否是有想展開爲:

P(B)=P(B)P(A1|B)+P(B)P(A1|B)+P(B)P(A1|B)的衝動?

固然這個式子是沒錯的,可是體現不了這個問題的解法:分階段。

(*)式子體現的是問題分爲兩個階段:
1)選人,分割問題
2)計算分割的子問題的條件機率

對應的這裏來即是:
1)選小偷,誰去偷
2)選定的小偷做爲條件,那麼他去偷的條件機率是什麼

因此將問題拆解爲階段的問題即是全機率公式針對的問題。

貝葉斯公式

貝葉斯公式有意思極了,簡單說就是逆全概公式。

前面是問整體看來被偷的機率是多少,如今是知道了整體被偷了這件事,機率並不知道,問你個更有意思的問題,像是偵探斷案:是哪一個小偷的偷的,計算每一個小偷偷的機率。

這個特性用在機器學習,人工智能領域至關好用。

也就是求:P(Ai|B)=P(AiB)P(B)
Ai:小偷i乾的;B:村子被偷了
首先是一個淳樸的條件機率的展開。
分母裏出現了P(B),剛剛討論的全概公式拿來用一用!
而P(AiB)=P(Ai)⋅P(B|Ai)
對應到上面的例子就鮮活一些:村子被偷了,求Ai偷的機率。

天然如今條件是P(B),分子變形爲P(AiB)=P(Ai)⋅P(B|Ai),是由於假定就是Ai偷的,這是一個已知的機率。
分母P(B)=∑ni=1P(Ai)P(B|Ai)
20161223 update:

除了上面的思路外,一般須要注意的是分階段意味着時間的前後。在先進行的事件的基礎上進行後面的事件,就很容易計算機率:P(AB)=P(A)P(B|A)這種。

因此當咱們須要計算先驗機率,即先發生的時間的機率時,老是想着用上面的這個類型來計算,且是經過條件機率進行過渡。

相關文章
相關標籤/搜索