貝葉斯優化用於機器學習調參由J. Snoek(2012)提出,主要思想是,給定優化的目標函數(廣義的函數,只需指定輸入和輸出便可,無需知道內部結構以及數學性質),經過不斷地添加樣本點來更新目標函數的後驗分佈(高斯過程,直到後驗分佈基本貼合於真實分佈。簡單的說,就是考慮了上一次參數的信息**,從而更好的調整當前的參數。html
他與常規的網格搜索或者隨機搜索的區別是:python
介紹貝葉斯優化調參,必需要從兩個部分講起:git
高斯過程能夠用於非線性迴歸、非線性分類、參數尋優等等。以往的建模須要對 p(ygithub
建模,當用於預測時,則是算法
而高斯過程則, 還考慮了 y數組
和 ybash
之間的關係,即:app
高斯過程經過假設 Ydom
值服從聯合正態分佈,來考慮 y 和 y機器學習
之間的關係,所以須要給定參數包括:均值向量和協方差矩陣,即: