幫助中心 | 我的帳號 | 關於我們

現代決策樹模型及其編程實踐(從傳統決策樹到深度決策樹)/智能科學與技術叢書

  • 作者:編者:黃智瀕|責編:曲熠
  • 出版社:機械工業
  • ISBN:9787111706366
  • 出版日期:2022/07/01
  • 裝幀:平裝
  • 頁數:423
人民幣:RMB 129 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書圍繞現代決策樹模型,通過原理解析、應用示例和完整的代碼實現詳細講解決策樹演算法,既涵蓋必要的公式推導,又考慮具體的應用需求。書中討論的主要演算法和技術包括:CART、ID3和C4.5等經典決策樹演算法,代價複雜度剪枝、錯誤率降低剪枝和悲觀錯誤剪枝等決策樹剪枝方法,隨機森林的構造和參數調優,套袋法、梯度提升法和堆疊法等集成學習方法,XGBoost、LightBoost和CatBoost等主流並行決策樹,常見蟻群演算法、蟻群決策樹演算法和自適應蟻群決策森林,深度森林、深度神經決策樹和深度神經決策森林等深度決策樹演算法。本書旨在幫助讀者系統且全面地了解決策樹,並成功將其用於工程實踐。全書配有豐富的代碼資源,所有代碼均可免費下載。

作者介紹
編者:黃智瀕|責編:曲熠
    黃智瀕,電腦系統結構博士,北京郵電大學電腦學院講師。長期從事智能機器學習、超大規模並行計算、三維電腦視覺和深度學習架構方面的研究。

目錄
讚譽
推薦序一
推薦序二
推薦序三
前言
第1章  決策樹與人工智慧
  1.1  決策與智能
  1.2  決策樹演算法的起源
  1.3  決策樹的核心術語
  1.4  決策樹的可解釋性
  1.5  作為決策分析工具的決策樹
    1.5.1  決策分析
    1.5.2  基於決策分析流程的決策樹
  1.6  作為機器學習演算法的決策樹
    1.6.1  機器學習演算法的類型
    1.6.2  基於數據的決策樹
    1.6.3  決策樹演算法面臨的基本問題
    1.6.4  基於規則的機器學習
  1.7  作為特徵學習與決策融合的決策樹
  1.8  參考文獻
第2章  經典決策樹演算法
  2.1  經典決策樹應用的一般流程
    2.1.1  缺失值的處理
    2.1.2  連續數值屬性的離散化處理
  2.2  CART演算法
    2.2.1  基尼不純度、基尼增益與基尼指數
    2.2.2  CART分類決策樹的原理
    2.2.3  CART分類決策樹的編程實踐
    2.2.4  回歸問題與回歸演算法
    2.2.5  CART回歸決策樹的特徵和分割點選擇準則
    2.2.6  CART回歸決策樹的原理
    2.2.7  CART回歸決策樹的編程實踐
  2.3  ID3演算法
    2.3.1  信息熵與信息增益
    2.3.2  ID3演算法示例
    2.3.3  ID3演算法的編程實踐
  2.4  C4.5演算法
    2.4.1  信息增益率
    2.4.2  連續屬性的處理
    2.4.3  缺失值的處理
    2.4.4  基於C4.5演算法處理連續屬性生成分類決策樹的示例
    2.4.5  C4.5演算法的後續改進——C5.0演算法
  2.5  決策樹的評估
  2.6  決策樹的5種可視化方法
  2.7  小結
  2.8  參考文獻
第3章  決策樹的剪枝
  3.1  代價複雜度剪枝
    3.1.1  CCP演算法的基本原理
    3.1.2  CCP演算法的編程實踐

    3.1.3  基於sklearn的CCP示例
  3.2  錯誤率降低剪枝
    3.2.1  REP演算法的基本原理
    3.2.2  REP演算法的編程實踐
  3.3  悲觀錯誤剪枝
    3.3.1  PEP演算法的基本原理
    3.3.2  PEP演算法的編程實踐
  3.4  最小錯誤剪枝
    3.4.1  MEP演算法的基本原理
    3.4.2  MEP演算法的編程實踐
  3.5  其他決策樹剪枝演算法簡介
  3.6  小結
  3.7  參考文獻
第4章  隨機森林
  4.1  隨機森林的基本原理
    4.1.1  構造隨機森林的步驟
    4.1.2  隨機森林的簡單示例
    4.1.3  基於sklearn的隨機森林編程示例
    4.1.4  選擇最優的隨機特徵屬性數量
  4.2  套袋法
    4.2.1  套袋法的演算法流程
    4.2.2  套袋法的偏差和方差
    4.2.3  套袋法的優缺點
  4.3  隨機森林的參數設置與調優
    4.3.1  sklearn隨機森林的參數
    4.3.2  調參示例
    4.3.3  OOB錯誤率與交叉驗證
  4.4  隨機森林的優缺點
  4.5  使用隨機森林進行特徵屬性的重要性區分的示例
    4.5.1  基於基尼指數的特徵屬性重要性評估
    4.5.2  基於袋外數據錯誤率的特徵屬性重要性評估
  4.6  使用隨機森林進行無監督聚類的示例
  4.7  使用隨機森林進行回歸分析的示例
  4.8  隨機森林與核方法的結合
  4.9  小結
  4.10  參考文獻
第5章  集成學習方法
  5.1  提升法
    5.1.1  AdaBoost演算法原理
    5.1.2  AdaBoost演算法實現
    5.1.3  AdaBoost演算法的編程實踐——基於sklearn解決分類問題
    5.1.4  AdaBoost演算法的編程實踐——基於sklearn解決回歸問題
    5.1.5  提升法的分類、優點和挑戰
  5.2  梯度提升法
    5.2.1  梯度提升法的原理和示例
    5.2.2  梯度提升決策樹
    5.2.3  梯度提升分類決策樹
    5.2.4  梯度提升回歸決策樹
    5.2.5  隨機梯度提升樹
    5.2.6  基於梯度提升法的機器學習庫

  5.3  堆疊法
    5.3.1  簡單的二階段堆疊演算法
    5.3.2  基於K折交叉驗證的二階段堆疊法
    5.3.3  基於sklearn的K折交叉驗證的二階段堆疊法的編程實踐
    5.3.4  多階段堆疊模型
  5.4  套袋法、提升法、堆疊法的比較
  5.5  小結
  5.6  參考文獻
第6章  並行決策樹
  6.1  隨機森林的並行化
  6.2  XGBoost基礎
    6.2.1  XGBoost核心原理
    6.2.2  XGBoost系統設計及其並行化加速
    6.2.3  XGBoost編程基礎
    6.2.4  XGBoost回歸問題編程
    6.2.5  XGBoost分類問題編程
    6.2.6  XGBoost隨機森林編程
    6.2.7  XGBoost特徵篩選編程
    6.2.8  XGBoost與傳統提升樹的比較
    6.2.9  XGBoost的缺點
  6.3  LightGBM基礎
    6.3.1  LightGBM核心原理
    6.3.2  LightGBM系統設計及其並行化加速
    6.3.3  LigthGBM編程基礎
    6.3.4  LightGBM與sklearn結合的示例
    6.3.5  LightGBM回歸問題編程
    6.3.6  LightGBM分類問題編程
    6.3.7  LightGBM的優缺點
  6.4  CatBoost基礎
    6.4.1  CatBoost核心原理
    6.4.2  CatBoost系統設計及其並行化加速
    6.4.3  CatBoost編程基礎
    6.4.4  CatBoost分類問題編程(不帶分類特徵屬性)
    6.4.5  CatBoost回歸問題編程(不帶分類特徵屬性)
    6.4.6  CatBoost回歸問題編程(帶分類特徵屬性)
    6.4.7  CatBoost的優缺點
    6.4.8  XGBoost、LightGBM、CatBoost的比較
  6.5  NGBoost簡介
  6.6  小結
  6.7  參考文獻
第7章  蟻群決策樹
  7.1  蟻群元啟髮式演算法
    7.1.1  典型蟻群演算法
    7.1.2  MMAS演算法
    7.1.3  ACS演算法
  7.2  基於蟻群的分類規則提取
    7.2.1  Ant-Miner規則提取方法
    7.2.2  Ant-Miner演算法實現
    7.2.3  Ant-Miner演算法的早期變種
    7.2.4  MYRA——開源實現

    7.2.5  Ant-MinerMA+G演算法
    7.2.6  AMclr演算法
  7.3  蟻群決策樹的演算法原理
    7.3.1  Ant-Tree-Miner決策樹生成演算法
    7.3.2  ACDT演算法
  7.4  自適應蟻群決策森林
    7.4.1  自適應ACDF演算法
    7.4.2  ACDF演算法中的長期提升
  7.5  小結
  7.6  參考文獻
第8章  深度決策樹
  8.1  深度森林
    8.1.1  gcForest的基本原理
    8.1.2  gcForest的編程實踐
    8.1.3  DF21開源庫
    8.1.4  改進的深度森林模型
  8.2  深度神經決策樹
    8.2.1  DNDT的基本原理
    8.2.2  DNDT的編程實踐
  8.3  自適應神經決策樹
    8.3.1  ANT的基本原理
    8.3.2  ANT的編程實踐
  8.4  神經支持決策樹
    8.4.1  NBDT的基本原理
    8.4.2  NBDT的編程實踐
  8.5  深度神經決策森林
    8.5.1  dNDF的基本原理
    8.5.2  dNDF模型的優缺點
    8.5.3  dNDF的編程實踐
  8.6  小結
  8.7  參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032