幫助中心 | 我的帳號 | 關於我們

機器學習中的統計思維(附小冊子Python實現)

  • 作者:編者:董平|責編:楊迪娜
  • 出版社:清華大學
  • ISBN:9787302634010
  • 出版日期:2023/09/01
  • 裝幀:平裝
  • 頁數:411
人民幣:RMB 99 元      售價:
放入購物車
加入收藏夾

內容大鋼
    機器學習是人工智慧的核心,而統計思維則是機器學習方法的核心:從隨機性中尋找規律性。例如,利用方差對不確定性的捕捉構造k維樹,採用貝葉斯公式構建分類決策模型,等等。只有樹立正確的統計思維,才能準確高效地運用機器學習方法開展數據處理與分析。本書以統計思維的視角,揭示監督學習中回歸和分類模型的核心思想,幫助讀者構建理論體系。具體模型包括線性回歸模型、K近鄰模型、貝葉斯推斷、邏輯回歸模型、決策樹模型、感知機模型、支持向量機、EM演算法和提升方法。
    本書共12章,緒論介紹貫穿本書的兩大思維模式,以及關於全書的閱讀指南;第1章介紹一些基本術語,並給出監督學習的流程;第2章介紹關於回歸問題的機器學習方法;第3?9章介紹關於分類問題的機器學習方法;第10章介紹可應用於具有隱變數模型的參數學習演算法——EM演算法;第11章簡單介紹集成學習,並重點闡述其中的提升(Boosting)方法。為滿足個性化學習需求的不同需求,本書從核心思想、方法流程及實際案例應用等不同角度,詳細描述各種方法的原理和實用價值,非常適合數據科學、機器學習專業的本科生和研究生學習,也可供相關從業者參考。

作者介紹
編者:董平|責編:楊迪娜
    董平(博士),上海對外經貿大學統計與信息學院講師。曾獲概率論與數理統計理學博士學位(山東大學2018)、理學學士學位和經濟學學士學位(山東大學2012);美國邁阿密大學訪問學者。主要研究領域為高維數據、假設檢驗、半監督回歸、統計機器學習等。參與多項科研項目和工程類項目,主持多項校級課程建設項目,曾獲第三屆上海市高校教師教學創新大賽二等獎。

目錄
緒論
  0.1  本書講什麼,初衷是什麼
  0.2  貫穿本書的兩大思維模式
    0.2.1  提問的思維方式
    0.2.2  發散的思維方式
  0.3  這本書決定它還想要這樣
    0.3.1  第一性原理
    0.3.2  奧卡姆剃刀原理
  0.4  如何使用本書
第1章  步入監督學習之旅
  1.1  機器學習從數據開始
  1.2  監督學習是什麼
    1.2.1  基本術語
    1.2.2  學習過程如同一場科學推理
  1.3  如何評價模型的好壞
    1.3.1  評價模型的量化指標
    1.3.2  擬合能力
    1.3.3  泛化能力
  1.4  損失最小化思想
  1.5  怎樣理解模型的性能:方差-偏差折中思想
  1.6  如何選擇最優模型
    1.6.1  正則化:對模型複雜程度加以懲罰
    1.6.2  交叉驗證:樣本的多次重複利用
  1.7  本章小結
  1.8  習題
第2章  線性回歸模型
  2.1  探尋線性回歸模型
    2.1.1  諾貝爾獎中的線性回歸模型
    2.1.2  回歸模型的誕生
    2.1.3  線性回歸模型結構
  2.2  最小二乘法
    2.2.1  回歸模型用哪種損失:平方損失
    2.2.2  如何估計模型參數:最小二乘法
  2.3  線性回歸模型的預測
    2.3.1  一元線性回歸模型的預測
    2.3.2  多元線性回歸模型的預測
  2.4  拓展部分:嶺回歸與套索回歸
    2.4.1  嶺回歸
    2.4.2  套索回歸
  2.5  案例分析——共享單車數據集
  2.6  本章小結
  2.7  習題
第3章  K近鄰模型
  3.1  鄰友思想
  3.2  K近鄰演算法
    3.2.1  聚合思想
    3.2.2  K近鄰模型的具體演算法
    3.2.3  K近鄰演算法的三要素
    3.2.4  K近鄰演算法的可視化
  3.3  最近鄰分類器的誤差率

  3.4  k維樹
    3.4.1  k維樹的構建
    3.4.2  k維樹的搜索
  3.5  拓展部分:距離度量學習的K近鄰分類器
  3.6  案例分析——鶯尾花數據集
  3.7  本章小結
  3.8  習題
第4章  貝葉斯推斷
  4.1  貝葉斯思想
    4.1.1  什麼是概率
    4.1.2  從概率到條件概率
    4.1.3  貝葉斯定理
  4.2  貝葉斯分類器
    4.2.1  貝葉斯分類
    4.2.2  樸素貝葉斯分類
  4.3  如何訓練貝葉斯分類器
    4.3.1  極大似然估計:概率最大化思想
    4.3.2  貝葉斯估計:貝葉斯思想
  4.4  常用的樸素貝葉斯分類器
    4.4.1  離散屬性變數下的樸素貝葉斯分類器
    4.4.2  連續特徵變數下的樸素貝葉斯分類器
  4.5  拓展部分
    4.5.1  半樸素貝葉斯
    4.5.2  貝葉斯網路
  4.6  案例分析——蘑菇數據集
  4.7  本章小結
  4.8  習題
  4.9  閱讀時間:貝葉斯思想的起源
第5章  邏輯回歸模型
  5.1  一切始於邏輯函數
    5.1.1  邏輯函數
    5.1.2  邏輯斯諦分佈
    5.1.3  邏輯回歸
  5.2  邏輯回歸模型的學習
    5.2.1  加權最小二乘法
    5.2.2  極大似然法
  5.3  邏輯回歸模型的學習演算法
    5.3.1  梯度下降法
    5.3.2  牛頓法
  5.4  拓展部分
    5.4.1  拓展1:多分類邏輯回歸模型
    5.4.2  拓展2:非線性邏輯回歸模型
  5.5  案例分析——離職數據集
  5.6  本章小結
  5.7  習題
  5.8  閱讀時間:牛頓法是牛頓提出的嗎
第6章  最大熵模型
  6.1  問世間熵為何物
    6.1.1  熱力學熵
    6.1.2  信息熵

  6.2  最大熵思想
    6.2.1  離散隨機變數的分佈
    6.2.2  連續隨機變數的分佈
  6.3  最大熵模型的學習問題
    6.3.1  最大熵模型的定義
    6.3.2  最大熵模型的原始問題與對偶問題
    6.3.3  最大熵模型的學習
  6.4  模型學習的最優化演算法
    6.4.1  最速梯度下降法
    6.4.2  擬牛頓法:DFP演算法和BFGS演算法
    6.4.3  改進的迭代尺度法
  6.5  案例分析——湯圓小例子
  6.6  本章小結
  6.7  習題
  6.8  閱讀時間:奇妙的對數
第7章  決策樹模型
  7.1  決策樹中蘊含的基本思想
    7.1.1  什麼是決策樹
    7.1.2  決策樹的基本思想
  7.2  決策樹的特徵選擇
    7.2.1  錯分類誤差
    7.2.2  基於熵的信息增益和信息增益比
    7.2.3  基尼不純度
    7.2.4  比較錯分類誤差、信息熵和基尼不純度
  7.3  決策樹的生成演算法
    7.3.1  ID3演算法
      7.3.2C4.5  演算法
    7.3.3  CART演算法
  7.4  決策樹的剪枝過程
    7.4.1  預剪枝
    7.4.2  后剪枝
  7.5  拓展部分:隨機森林
  7.6  案例分析——帕爾默企鵝數據集
  7.7  本章小結
  7.8  習題
  7.9  閱讀時間:經濟學中的基尼指數
第8章  感知機模型
  8.1  感知機制——從邏輯回歸到感知機
  8.2  感知機的學習
  8.3  感知機的優化演算法
    8.3.1  原始形式演算法
    8.3.2  對偶形式演算法
  8.4  案例分析——鶯尾花數據集
  8.5  本章小結
  8.6  習題
第9章  支持向量機
  9.1  從感知機到支持向量機
  9.2  線性可分支持向量機
    9.2.1  線性可分支持向量機與最大間隔演算法
    9.2.2  對偶問題與硬間隔演算法

  9.3  線性支持向量機
    9.3.1  線性支持向量機的學習問題
    9.3.2  對偶問題與軟間隔演算法
    9.3.3  線性支持向量機之合頁損失
  9.4  非線性支持向量機
    9.4.1  核變換的根本——核函數
    9.4.2  非線性可分支持向量機
    9.4.3  非線性支持向量機
  9.5  SMO優化方法
    9.5.1  「失敗的」坐標下降法
    9.5.2  「成功的」SMO演算法
  9.6  案例分析——電離層數據集
  9.7  本章小結
  9.8  習題
第10章  EM演算法
  10.1  極大似然法與EM演算法
    10.1.1  具有缺失數據的豆花小例子
    10.1.2  具有隱變數的硬幣盲盒例子
  10.2  EM演算法的迭代過程
    10.2.1  EM演算法中的兩部曲
    10.2.2  EM演算法的合理性
  10.3  EM演算法的應用
    10.3.1  高斯混合模型
    10.3.2  隱馬爾可夫模型
  10.4  本章小結
  10.5  習題
第11章  提升方法
  11.1  提升方法(Boosting)是一種集成學習方法
    11.1.1  什麼是集成學習
    11.1.2  強可學習與弱可學習
  11.2  起步于AdaBoost演算法
    11.2.1  兩大內核:前向回歸和可加模型
    11.2.2  AdaBoost的前向分步演算法
    11.2.3  AdaBoost分類演算法
    11.2.4  AdaBoost分類演算法的訓練誤差
  11.3  提升樹和GBDT演算法
    11.3.1  回歸提升樹
    11.3.2  GDBT演算法
  11.4  拓展部分:XGBoost演算法
  11.5  案例分析——波士頓房價數據集
  11.6  本章小結
  11.7  習題
參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032