貝葉斯公式的通俗理解

概述

貝葉斯分析是整個機器學習的基礎框架 中學課本里說機率這個東西表述是一件事情發生的頻率, 或者說這叫作客觀機率。 貝葉斯框架下的機率理論確從另外一個角度給咱們展開了答案, 它認爲機率是咱們我的的一個主觀概念, 代表咱們對某個事物發生的相信程度html

先驗機率和後驗機率

也能夠叫正向機率和逆向機率。markdown

先驗機率就是不加條件(信息)的判斷一件事發生的機率。好比你是否聰明的機率。你是否患病的機率。app

後驗機率是在附加了某條件後判斷一件事發生的機率(是一種條件機率)。這個條件能夠是已知另外一個事件的發生,附加的條件對咱們對判斷前一個事件而言至關於新的信息,藉此可做出更可靠的判斷,從而實現從先驗機率prior到後驗機率posterior的改變。 好比已知你考上了大學,此時再判斷你是否聰明的機率也變了。已知你檢測呈陽性,此時再判斷你是否患病的機率也變了。 注意這一點理解思惟很是重要框架

貝葉斯公式的理解

img

P ( A ) P(A) 爲先驗機率, P ( B ) P(B) 爲後驗機率·, P ( B A ) P(B|A) 爲條件機率,這三者便是貝葉斯統計的三要素。機器學習

先驗機率

先驗機率 P ( A ) P(A) 在貝葉斯統計中具備重要意義,首先先驗機率即咱們在取得證據以前所指定的機率 P ( A ) P(A) , 這個值一般是根據咱們以前的常識,帶有必定的主觀色彩。 有一個很是有趣的現象是若是咱們的先驗機率審定爲 1 1 0 0 (即確定或否認某件事發生), 那麼不管咱們如何增長證據你也依然獲得一樣的條件機率( P ( A ) = 0 / 1 P ( A B ) = 0 / 1 P(A)=0/1 \rightarrow P(A|B)= 0/1 ) 這告訴咱們的第一個經驗就是不要過早的下論斷,不少時候咱們都是在忽略後驗機率的做用oop

後驗機率

後驗機率 P ( B ) P(B) 每每是當前的突發事件,一樣須要歸入考慮範圍。post

條件機率

P ( B A ) P(B|A) 表示在A發生的前提下,B發生的機率,是以A事件100%發生來計算AB同時發生的機率。學習

要與 P ( A B ) P(AB) 加以區別, P ( A B ) P(AB) 表示AB同時發生的機率,是以全體事件爲100%來計算其中AB同時發生的機率。spa

貝葉斯定理的意義

若是你太注重特例(即忽視先驗機率) 頗有可能會誤把噪聲看作信號,而若是恪守先驗機率忽視後驗機率, 就成爲無視變化而墨守成規的人。貝葉斯定理告訴咱們要綜合看待這兩者code

數學角度的理解

上面的通俗理解,簡單來說,就是對於一個已知事件B發生了,去探究某一緣由致使這一結果發生的機率,必定要考慮到全部的可能狀況。

貝葉斯公式全盤考慮了這一緣由佔總緣由的比例

img

分子爲這一緣由,分母爲總緣由。

貝葉斯公式講解1

[貝葉斯共識理解](

相關文章
相關標籤/搜索