JavaShuo
欄目
標籤
秦曾昌人工智能課程---七、決策樹集成學習Tree Ensembles
時間 2020-05-23
標籤
人工智能
課程
決策樹
集成
學習
tree
ensembles
简体版
原文
原文鏈接
秦曾昌人工智能課程---七、決策樹集成學習Tree Ensembles
1、總結
一句話總結:
其實機器模型減小variance的比較好的方式就是 多個模型取平均值
一、CART是什麼?
classification and regression tree
二、決策樹模型的本質是什麼?
divide the input space into a few regions
三、咱們如何用決策樹去作預測?
信息不一樣屬性按重要性依次下分:先劃分x1的範圍,這就造成了一個二叉樹分支,再劃分x2的範圍,就造成的決策樹。
葉子節點是分類,也是預測:預測的話就是不一樣範圍的(x1,x2)就對應了不一樣的y,這個y就是能夠用做預測的
葉子節點是預測值:決策樹,非葉子節點就是x1,x2的範圍,葉子節點就是預測的值y
四、CART tree 分割的一個例子?
|||-begin
分佈式
x 1 | 2 3 4 | 5 6 7 8 9 10
y 0
| 1 2 3 | 4 5 6 7 8 9
|||-end
ide
求不一樣分割的重要性:若是是1.5處分割,那麼loss(1.5)=每一部分的差值平方和的和,好比第二部分xi={1-9},x平均數=5,(xi-5)^2
五、CART tree的本質是什麼?
二分·遞歸·分割樹:感受和線段樹的分割很是類似,只不過cart tree的葉子節點是y值
六、如何用cart tree作集成學習?
多個角色投票產生:每一個角色可能準確度不高,可是多個角色投票起來,準確率就高了不少(和屢次模型取平均值很類似)
七、用cart tree作集成學習中Bagging 和 Boosting的區別是什麼?
Bagging:每一個臭皮匠的能力都是同樣:每一個模型是單獨訓練,方便作分佈式,最後各個模型投票決定
Boosting:給臭皮匠分了等級:後一個模型的訓練依賴於前一個,給分錯的數據增長權限方便下一個模型分對,給訓練的模型增長權限爲了最後投票,最後也是各個模型投票決定
八、用cart tree作集成學習的好處是什麼?
去掉了噪音:即那些不着邊際的數據
2、內容在總結中
相關文章
1.
人工智能---決策樹
2.
人工智能初學- 1.1 決策樹
3.
【某航】決策樹分類學習--人工智能課程大做業
4.
人工智能算法—決策樹
5.
人工智能原理(二)——決策樹
6.
你們的人工智能——決策樹
7.
學習(三)決策樹/集成學習
8.
人工智能西瓜書學習筆記(四)——決策樹
9.
人工智能學習視頻課程
10.
決策樹(中)-集成學習、RF、AdaBoost、Boost Tree、GBDT
更多相關文章...
•
netwox網絡工具集入門教程
-
TCP/IP教程
•
您已經學習了 XML Schema,下一步學習什麼呢?
-
XML Schema 教程
•
Tomcat學習筆記(史上最全tomcat學習筆記)
•
適用於PHP初學者的學習線路和建議
相關標籤/搜索
人工智能
集成學習
決策樹
人工智能哲學
決策
智能工廠
工業智能
tree
人工智能學習筆記
商業智能VS人工智能
Spring教程
PHP教程
Thymeleaf 教程
學習路線
教程
開發工具
0
分享到微博
分享到微信
分享到QQ
每日一句
每一个你不满意的现在,都有一个你没有努力的曾经。
最新文章
1.
resiprocate 之repro使用
2.
Ubuntu配置Github並且新建倉庫push代碼,從已有倉庫clone代碼,並且push
3.
設計模式9——模板方法模式
4.
avue crud form組件的快速配置使用方法詳細講解
5.
python基礎B
6.
從零開始···將工程上傳到github
7.
Eclipse插件篇
8.
Oracle網絡服務 獨立監聽的配置
9.
php7 fmp模式
10.
第5章 Linux文件及目錄管理命令基礎
本站公眾號
歡迎關注本站公眾號,獲取更多信息
相關文章
1.
人工智能---決策樹
2.
人工智能初學- 1.1 決策樹
3.
【某航】決策樹分類學習--人工智能課程大做業
4.
人工智能算法—決策樹
5.
人工智能原理(二)——決策樹
6.
你們的人工智能——決策樹
7.
學習(三)決策樹/集成學習
8.
人工智能西瓜書學習筆記(四)——決策樹
9.
人工智能學習視頻課程
10.
決策樹(中)-集成學習、RF、AdaBoost、Boost Tree、GBDT
>>更多相關文章<<