幫助中心 | 我的帳號 | 關於我們

集成學習入門與實戰(原理演算法與應用)

  • 作者:(印度)阿洛克·庫馬爾//馬揚克·賈因|責編:雷桐輝|譯者:吳健鵬
  • 出版社:化學工業
  • ISBN:9787122401670
  • 出版日期:2022/02/01
  • 裝幀:平裝
  • 頁數:122
人民幣:RMB 69.8 元      售價:
放入購物車
加入收藏夾

內容大鋼
    《集成學習入門與實戰:原理、演算法與應用》通過6章內容全面地解讀了集成學習的基礎知識、集成學習技術、集成學習庫和實踐應用。其中集成學習技術包括採樣、Bagging、投票集成、Boosting、AdaBoost、梯度提升、XGBoost、Stacking、隨機森林、決策樹等,從混合訓練數據到混合模型,再到混合組合,邏輯嚴謹、逐步講解;同時也對ML-集成學習、Dask、LightGBM、AdaNet等集成學習庫相關技術進行了詳細解讀;最後通過相關實踐對集成學習進行綜合性應用。本書配有邏輯框圖、關鍵代碼及代碼分析,使讀者在閱讀中能夠及時掌握演算法含義和對應代碼。
    本書適合集成學習的初學者和機器學習方向的從業者和技術人員閱讀學習,也適合開設機器學習等演算法課程的高等院校師生使用。

作者介紹
(印度)阿洛克·庫馬爾//馬揚克·賈因|責編:雷桐輝|譯者:吳健鵬

目錄
第1章  為什麼需要集成學習
  1.1  混合訓練數據
  1.2  混合模型
  1.3  混合組合
  1.4  本章小結
第2章  混合訓練數據
  2.1  決策樹
  2.2  數據集採樣
    2.2.1  不替換採樣(WOR)
    2.2.2  替換採樣(WR)
  2.3  Bagging(裝袋演算法)
    2.3.1  k重交叉驗證
    2.3.2  分層的k重交叉驗證
  2.4  本章小結
第3章  混合模型
  3.1  投票集成
  3.2  硬投票
  3.3  均值法/軟投票
  3.4  超參數調試集成
  3.5  水平投票集成
  3.6  快照集成
  3.7  本章小結
第4章  混合組合
  4.1  Boosting(提升演算法)
    4.1.1  AdaBoost(自適應提升演算法)
    4.1.2  Gradient Boosting(梯度提升演算法)
    4.1.3  XGBoost(極端梯度提升演算法)
  4.2  Stacking(堆疊演算法)
  4.3  本章小結
第5章  集成學習庫
  5.1  ML-集成學習
    5.1.1  多層集成
    5.1.2  集成模型的選擇
  5.2  通過Dask擴展XGBoost
    5.2.1  Dask數組與數據結構
    5.2.2  Dask-ML
    5.2.3  擴展XGBoost
    5.2.4  微軟LightGBM
    5.2.5  AdaNet
  5.3  本章小結
第6章  實踐指南
  6.1  基於隨機森林的特徵選擇
  6.2  基於集成樹的特徵轉換
  6.3  構建隨機森林分類器預處理程序
  6.4  孤立森林進行異常點檢測
  6.5  使用Dask庫進行集成學習處理
    6.5.1  預處理
    6.5.2  超參數搜索
  6.6  本章小結
致謝

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032