幫助中心 | 我的帳號 | 關於我們

集成式機器學習演算法理論與應用

  • 作者:楊小青//楊朋霖|責編:金林茹
  • 出版社:化學工業
  • ISBN:9787122474711
  • 出版日期:2025/06/01
  • 裝幀:平裝
  • 頁數:287
人民幣:RMB 99 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書全面系統地介紹了集成式機器學習的核心理論及其在現實中的實際應用。全書內容不僅詳細講解了集成式機器學習的基本概念,以及結合多個模型的預測來提升整體性能的集成方法,而且輔以豐富的實戰案例和代碼實現,深入探討了它們在分類、回歸、異常檢測等任務中的應用效果;通過理論講解與實際案例相結合,幫助讀者深入理解集成式機器學習的關鍵技術,並能夠將這些技術應用於實際問題中。本書每章內容都經過精心設計,既包括對基本概念的系統講解,又涵蓋了最新的研究成果和發展趨勢。
    本書適合從事人工智慧、機器學習相關研究與應用的工程技術人員閱讀,也可作為人工智慧等相關專業師生的參考書。

作者介紹
楊小青//楊朋霖|責編:金林茹

目錄
第1章  緒論
  1.1  集成式機器學習的發展
    1.1.1  相關理論
    1.1.2  發展階段
  1.2  本書主要內容
第2章  基礎知識與理論框架
  2.1  大數據技術
    2.1.1  大數據的概念與特徵
    2.1.2  大數據處理技術
    2.1.3  大數據分析與挖掘
    2.1.4  大數據的發展趨勢
  2.2  人工智慧
    2.2.1  人工智慧的定義與發展歷程
    2.2.2  人工智慧的基本原理
    2.2.3  人工智慧的應用領域
    2.2.4  人工智慧的工具與框架
  2.3  機器學習
    2.3.1  機器學習的定義與基本概念
    2.3.2  機器學習演算法分類
    2.3.3  特徵工程
  2.4  理論框架
第3章  監督學習演算法
  3.1  線性回歸
    3.1.1  理解線性回歸
    3.1.2  損失函數
    3.1.3  線性回歸的代碼示例
    3.1.4  線性回歸的應用領域及其優缺點
  3.2  邏輯回歸
    3.2.1  理解邏輯回歸
    3.2.2  邏輯回歸模型表達式
    3.2.3  邏輯回歸應用領域及其優缺點
    3.2.4  邏輯回歸的代碼示例
    3.2.5  邏輯回歸與線性回歸的對比
  3.3  支持向量機
    3.3.1  理解支持向量機
    3.3.2  支持向量機的代碼實現
    3.3.3  支持向量機應用領域及其優缺點
    3.3.4  支持向量回歸
  3.4  決策樹
    3.4.1  理解決策樹
    3.4.2  決策樹的代碼實現
    3.4.3  決策樹的優缺點及應用領域
  3.5  隨機森林
    3.5.1  理解隨機森林
    3.5.2  隨機性引入
    3.5.3  隨機森林的代碼實現
    3.5.4  隨機森林的優缺點及應用領域
  3.6  K近鄰演算法
    3.6.1  理解K近鄰
    3.6.2  K近鄰演算法的代碼實現

    3.6.3  K近鄰的優缺點及應用領域
第4章  無監督學習演算法
  4.1  K均值聚類
    4.1.1  理論背景
    4.1.2  演算法原理
    4.1.3  數學基礎
    4.1.4  K均值聚類的步驟
    4.1.5  案例
    4.1.6  K均值聚類的優點和缺點
    4.1.7  優化與改進
  4.2  層次聚類
    4.2.1  凝聚型層次聚類
    4.2.2  分裂型層次聚類
  4.3  主成分分析
    4.3.1  理論背景
    4.3.2  數學基礎
    4.3.3  核心思想
    4.3.4  PCA步驟
    4.3.5  優點與缺點
    4.3.6  應用場景
  4.4  t 分佈隨機鄰域嵌入
    4.4.1  理論背景
    4.4.2  數學基礎
    4.4.3  核心思想
    4.4.4  -t SNE步驟
    4.4.5  優點與缺點
    4.4.6  應用場景
  4.5  關聯規則學習
    4.5.1  理論背景
    4.5.2  主要概念
    4.5.3  關鍵指標
    4.5.4  常用演算法
    4.5.5  應用場景
第5章  深度學習演算法
  5.1  神經網路基礎
    5.1.1  神經元模型
    5.1.2  前向傳播與反向傳播
    5.1.3  損失函數與優化演算法
    5.1.4  正則化與參數初始化
    5.1.5  深度神經網路的訓練技巧
  5.2  深度神經網路
    5.2.1  深度神經網路的結構
    5.2.2  激活函數的選擇與作用
    5.2.3  深度神經網路的訓練技巧與調優
    5.2.4  深度神經網路的應用
  5.3  卷積神經網路
    5.3.1  卷積層的基本原理
    5.3.2  池化層的作用與類型
    5.3.3  常見的CNN架構
    5.3.4  卷積神經網路的訓練技巧與調優

    5.3.5  卷積神經網路在電腦視覺中的應用案例
  5.4  循環神經網路
    5.4.1  循環神經網路的基本結構與工作原理
    5.4.2  循環神經網路的訓練技巧
    5.4.3  循環神經網路在自然語言處理中的應用
    5.4.4  循環神經網路在時間序列預測中的應用
  5.5  長短期記憶網路
    5.5.1  LSTM單元的結構與功能
    5.5.2  記憶單元與遺忘門
    5.5.3  輸入門與輸出門
    5.5.4  LSTM在序列建模與預測中的應用
  5.6  生成對抗網路
    5.6.1  生成器的結構與工作原理
    5.6.2  判別器的結構與工作原理
    5.6.3  GAN的對抗訓練過程
    5.6.4  GAN的優化方法
    5.6.5  GAN的應用
第6章  強化學習演算法
  6.1  馬爾可夫決策過程
    6.1.1  核心概念
    6.1.2  值函數
    6.1.3  策略
    6.1.4  解決MDP的方法
    6.1.5  MDP的擴展
    6.1.6  MDP在強化學習中的應用
  6.2  Q學習
    6.2.1  核心思想
    6.2.2  演算法步驟
    6.2.3  貝爾曼最優方程
    6.2.4  Q學習的收斂性和優化
    6.2.5  Q學習的探索與利用
    6.2.6  Q學習的關鍵參數調優
    6.2.7  雙Q學習
    6.2.8  分散式Q學習
    6.2.9  Q學習的應用領域
  6.3  深度強化學習
  6.4  策略梯度方法
    6.4.1  策略梯度方法概述
    6.4.2  策略表示
    6.4.3  策略梯度演算法
    6.4.4  策略梯度方法的挑戰與局限性
    6.4.5  策略梯度方法的應用
第7章  集成學習演算法
  7.1  單一與集成
    7.1.1  理解單一模型與集成模型
    7.1.2  集成學習演算法
    7.1.3  集成學習原理
    7.1.4  集成學習中的特徵選擇
    7.1.5  集成學習中的超參數調優
  7.2  Bagging演算法

    7.2.1  Bagging的基本原理
    7.2.2  Bagging演算法詳解
    7.2.3  Bagging演算法的Python代碼實現
    7.2.4  Bagging演算法的優缺點及應用領域
    7.2.5  Bagging演算法的應用實例
  7.3  Boosting演算法
    7.3.1  Boosting的基本原理
    7.3.2  Boosting演算法詳解
    7.3.3  Boosting演算法的Python代碼實現
    7.3.4  Boosting演算法的優缺點及應用領域
    7.3.5  Boosting演算法的應用實例
  7.4  Stacking演算法
    7.4.1  Stacking的基本原理
    7.4.2  Stacking演算法詳解
    7.4.3  Stacking演算法的Python代碼實現
    7.4.4  Stacking演算法的優缺點及應用領域
    7.4.5  Stacking演算法的應用實例
  7.5  元學習與學習器組合
    7.5.1  元學習
    7.5.2  元學習的應用
    7.5.3  學習器組合
    7.5.4  學習器組合的應用
    7.5.5  元學習與學習器組合的關係
第8章  特徵工程與模型評估
  8.1  數據預處理
  8.2  特徵選擇
    8.2.1  特徵選擇的作用
    8.2.2  特徵選擇的方法
  8.3  特徵提取
    8.3.1  統計學方法
    8.3.2  模型基礎方法
    8.3.3  模型降維方法
    8.3.4  文本數據的特徵提取
    8.3.5  圖像數據的特徵提取
    8.3.6  時間序列數據的特徵提取
    8.3.7  數值型數據的特徵提取
    8.3.8  特徵提取在實際問題中的調優策略
  8.4  特徵轉換
  8.5  特徵構造
  8.6  模型評估及指標
    8.6.1  模型評估的重要性和目的
    8.6.2  評估指標
  8.7  交叉驗證
    8.7.1  交叉驗證簡介
    8.7.2  常見的交叉驗證技術
    8.7.3  交叉驗證的實施步驟
    8.7.4  高級交叉驗證技術
  8.8  調整模型參數
    8.8.1  理解超參數和調優的重要性
    8.8.2  調優的目標

    8.8.3  常見的超參數及其影響
    8.8.4  調優方法
第9章  集成式機器學習應用
  9.1  自然語言處理
    9.1.1  詞嵌入
    9.1.2  文本分類
    9.1.3  情感分析
    9.1.4  機器翻譯
    9.1.5  智能客服
  9.2  圖像處理與電腦視覺
  9.3  生物信息學與醫療
  9.4  通信流量與信息安全
  9.5  金融與電子商務
  9.6  交通與物流
第10章  機器學習演算法實現
  10.1  Spark機器學習演算法實現
    10.1.1  分類
    10.1.2  回歸
    10.1.3  協同過濾
    10.1.4  聚類
    10.1.5  降維
  10.2  Flink機器學習演算法實現
    10.2.1  環境準備
    10.2.2  分類
    10.2.3  聚類
    10.2.4  評估
  10.3  PyTorch機器學習演算法實現
    10.3.1  線性回歸
    10.3.2  邏輯回歸
    10.3.3  多層感知器
    10.3.4  卷積神經網路
    10.3.5  循環神經網路
    10.3.6  長短期記憶網路
    10.3.7  門控循環單元
    10.3.8  Transformer模型
    10.3.9  BERT
    10.3.10  生成對抗網路
    10.3.11  自編碼器
    10.3.12  深度Q網路
    10.3.13  圖神經網路
  10.4  TensorFlow機器學習演算法實現
    10.4.1  線性回歸
    10.4.2  邏輯回歸
    10.4.3  多層感知器
    10.4.4  卷積神經網路
    10.4.5  循環神經網路
    10.4.6  長短期記憶網路
    10.4.7  門控循環單元
    10.4.8  Transformer模型
    10.4.9  BERT

    10.4.10  生成對抗網路
    10.4.11  自編碼器
第11章  未來發展趨勢與挑戰
  11.1  自動機器學習
    11.1.1  自動機器學習基礎理論
    11.1.2  自動化特徵工程與數據預處理
    11.1.3  AutoML的挑戰與未來發展
  11.2  量子機器學習
    11.2.1  量子機器學習基礎理論
    11.2.2  量子機器學習基本原理
    11.2.3  量子機器學習的挑戰與未來發展
  11.3  新興領域與潛在應用
    11.3.1  集成式機器學習的新興領域
    11.3.2  集成式機器學習的潛在應用
  11.4  技術發展對機器學習的影響
參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032