幫助中心 | 我的帳號 | 關於我們

機器學習(工程師和科學家的第一本書)/智能科學與技術叢書

  • 作者:(瑞典)安德里亞斯·林霍爾姆//尼克拉斯·瓦爾斯特倫//弗雷德里克·林斯滕//托馬斯·B.舍恩|責編:曲熠|譯者:湯善江//于策//孫超
  • 出版社:機械工業
  • ISBN:9787111753698
  • 出版日期:2024/06/01
  • 裝幀:平裝
  • 頁數:265
人民幣:RMB 109 元      售價:
放入購物車
加入收藏夾

內容大鋼
    在連貫的統計框架中,本書涵蓋了一系列有監督的機器學習方法,包括基礎方法(k-NN、決策樹、線性和邏輯回歸等)和高級方法(深度神經網路、支持向量機、高斯過程、隨機森林和提升等),以及常用的無監督方法(生成模型、k-均值聚類、自動編碼器、主成分分析和生成對抗網路等)。所有方法都包含詳細的解釋和偽代碼。通過在方法之間建立聯繫,討論一般概念(例如損失函數、zuida似然、偏差-方差分解、核和貝葉斯方法),同時介紹常規的實用工具(例如正則化、交叉驗證、評估指標和優化方法),本書始終將關注點放在基礎知識上。最後兩章為解決現實世界中有監督的機器學習問題和現代機器學習的倫理問題提供了實用建議。

作者介紹
(瑞典)安德里亞斯·林霍爾姆//尼克拉斯·瓦爾斯特倫//弗雷德里克·林斯滕//托馬斯·B.舍恩|責編:曲熠|譯者:湯善江//于策//孫超

目錄
譯者序
致謝
符號表
第1章  引言
  1.1  機器學習的示例
  1.2  關於本書
  1.3  拓展閱讀
第2章  有監督學習:第一個方法
  2.1  有監督機器學習
    2.1.1  從有標記的數據中學習
    2.1.2  數值型和分類型變數
    2.1.3  分類和回歸
    2.1.4  在訓練數據之外進行泛化
  2.2  一個基於距離的方法:k-NN
    2.2.1  k-NN演算法
    2.2.2  分類器的決策邊界
    2.2.3  k的選擇
    2.2.4  輸入標準化
  2.3  一種基於規則的方法:決策樹
    2.3.1  學習回歸樹
    2.3.2  分類樹
    2.3.3  決策樹應該多深?
  2.4  拓展閱讀
第3章  基本參數模型和統計
視角上的學習
  3.1  線性回歸
    3.1.1  線性回歸模型
    3.1.2  用訓練數據訓練線性回歸模型
    3.1.3  損失函數和代價函數
    3.1.4  最小二乘法和正規方程
    3.1.5  最大似然視角
    3.1.6  分類型輸入變數
  3.2  分類和邏輯回歸
    3.2.1  從統計角度看分類問題
    3.2.2  二元分類的邏輯回歸模型
    3.2.3  通過最大似然法訓練邏輯回歸模型
    3.2.4  預測和決策邊界
    3.2.5  兩類以上的邏輯回歸
  3.3  多項式回歸和正則化
  3.4  廣義線性模型
  3.5  拓展閱讀
  3.A 正規方程的推導
    3.A.1 微積分方法
    3.A.2 線性代數方法
第4章  理解、評估和提高性能
  4.1  預期的新數據錯誤:實際生產環境中的性能
  4.2  估計
    4.2.1  我們無法從訓練數據中估計
    4.2.2  我們可以從保留的驗證數據中估計
    4.2.3  k-fold 交叉驗證無須設置保留驗證數據

    4.2.4  使用測試數據集
  4.3  的訓練誤差:泛化差距分解
    4.3.1  什麼影響泛化差距?
    4.3.2  在實際應用中降低
    4.3.3  模型複雜度的缺陷
  4.4  的偏差-方差分解
    4.4.1  什麼影響偏差和方差?
    4.4.2  偏差、方差和泛化差距之間的聯繫
  4.5  用於評估二元分類器的其他工具
    4.5.1  混淆矩陣和ROC曲線
    4.5.2  分數和精確率-召回率曲線
  4.6  拓展閱讀
第5章  學習參數模型
  5.1  參數化建模原則
    5.1.1  非線性參數函數
    5.1.2  損失最小化作為泛化替代
  5.2  損失函數和基於似然的模型
    5.2.1  回歸中的損失函數
    5.2.2  二元分類中的損失函數
    5.2.3  多類分類
    5.2.4  基於似然的模型和最大似然方法
    5.2.5  嚴格正確的損失函數和漸近最小化器
  5.3  正則化
    5.3.1  正則化
    5.3.2  正則化
    5.3.3  一般顯式正則化
    5.3.4  隱式正則化
  5.4  參數優化
    5.4.1  閉式解優化
    5.4.2  梯度下降
    5.4.3  二階梯度法
  5.5  大型數據集優化
    5.5.1  隨機梯度下降
    5.5.2  隨機梯度下降的學習率和收斂度
    5.5.3  隨機二階梯度法
    5.5.4  自適應方法
  5.6  超參數優化
  5.7  拓展閱讀
第6章  神經網路和深度學習
  6.1  神經網路模型
    6.1.1  廣義線性回歸
    6.1.2  雙層神經網路
    6.1.3  單元向量化
    6.1.4  深度神經網路
    6.1.5  數據點向量化
    6.1.6  用於分類的神經網路
  6.2  訓練神經網路
    6.2.1  反向傳播
    6.2.2  初始化
  6.3  卷積神經網路

    6.3.1  圖像的數據表示
    6.3.2  卷積層
    6.3.3  稀疏相互作用
    6.3.4  參數共享
    6.3.5  卷積層和步幅
    6.3.6  池化層
    6.3.7  多通道
    6.3.8  完整的CNN架構
  6.4  dropout
    6.4.1  子網路集成
    6.4.2  通過dropout訓練
    6.4.3  測試時的預測
    6.4.4  dropout和bagging
    6.4.5  將dropout作為正則化方法
  6.5  拓展閱讀
  6.A 反向傳播方程的推導
……
第7章  集成方法:bagging和提升方法
第8章  非線性輸入變換和核
第9章  貝葉斯方法和高斯過程
第10章  生成模型和無標記學習
第11章  機器學習的用戶視角
第12章  機器學習中的倫理學
參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032