幫助中心 | 我的帳號 | 關於我們

機器學習(演算法背後的理論與優化)

  • 作者:史春奇//卜晶禕//施智平
  • 出版社:清華大學
  • ISBN:9787302517184
  • 出版日期:2019/07/01
  • 裝幀:平裝
  • 頁數:185
人民幣:RMB 69 元      售價:
放入購物車
加入收藏夾

內容大鋼
    以機器學習為核心的人工智慧已經成為新一代生產力發展的主要驅動因素。新的技術正在向各行各業滲透,大有變革各個領域的趨勢。傳統產業向智慧產業的升級迫使原行業從業人員逐漸轉型,市場上對相關學習材料的需求也日益高漲。幫助廣大學習者更好地理解和掌握機器學習,是編寫本書的目的。
    本書針對機器學習領域中最常見的一類問題——有監督學習,從入門、進階、深化三個層面由淺入深地進行了講解。三個層麵包括基礎入門演算法、核心理論及理論背後的數學優化。入門部分用以邏輯回歸為代表的廣義線性模型為出發點,引入書中所有涉及的知識點;進階部分的核心理論涵蓋了經驗風險最小、結構風險最小、正則化及統一的分類邊界理論;深化部分的數學優化則主要包括最大熵原理、拉格朗日對偶等理論在數學上的推導,以及對模型求解的主流最優化方法的探討等。
    本書由淺入深,從個別到普便,從自然演算法到優化演算法,從各個角度深入剖析了機器學習,力求幫助讀者循序漸進地掌握機器學習的概念、演算法和優化理論。

作者介紹
史春奇//卜晶禕//施智平

目錄
第1章  線性回歸與邏輯回歸
  1.1  線性回歸
    1.1.1  函數關係與統計關係
    1.1.2  統計與機器學習
  1.2  最小二乘法與高斯-馬爾可夫定理
    1.2.1  最小二乘法
    1.2.2  高斯-馬爾可夫定理
  1.3  從線性回歸到邏輯回歸
  1.4  最大似然估計求解邏輯回歸
  1.5  最小二乘與最大似然
    1.5.1  邏輯回歸與伯努利分佈
    1.5.2  線性回歸與正態分佈
  1.6  小結
  參考文獻
第2章  廣義線性模型
  2.1  廣義線性模型概述
    2.1.1  廣義線性模型的定義
    2.1.2  鏈接函數與指數分佈簇
  2.2  廣義線性模型求解
  2.3  最大似然估計Ⅰ:Fisher信息
  2.4  最大似然估計Ⅱ:KL散度與Bregman散度
    2.4.1  KL散度
    2.4.2  Bregman散度
  2.5  小結
  參考文獻
第3章  經驗風險最小
  3.1  經驗風險與泛化誤差概述
    3.1.1  經驗風險
    3.1.2  泛化誤差
    3.1.3  欠擬合和過擬合
    3.1.4  VC維
  3.2  經驗風險最小的演算法
  3.3  分類邊界
    3.3.1  分類演算法的損失函數
    3.3.2  分類演算法的邊界
  3.4  小結
  參考文獻
第4章  結構風險最小
  4.1  經驗風險最小和過擬合
  4.2  結構風險最小和正則化
    4.2.1  從空間角度理解SRM
    4.2.2  從貝葉斯觀點理解SRM
  4.3  回歸的正則化
    4.3.1  L2正則化和嶺回歸
    4.3.2  L1正則化和Lasso回歸
    4.3.3  L1、L2組合正則化和ElasticNet回歸
  4.4  分類的正則化
    4.4.1  支持向量機和L2正則化
    4.4.2  XGBoost和樹正則化
    4.4.3  神經網路和DropOut正則化

    4.4.4  正則化的優缺點
  4.5  小結
  參考文獻
第5章  貝葉斯統計與熵
  5.1  統計學習的基礎:參數估計
    5.1.1  矩估計
    5.1.2  最大似然估計
    5.1.3  最小二乘法
  5.2  概率分佈與三大統計思維
    5.2.1  頻率派和正態分佈
    5.2.2  經驗派和正態分佈
    5.2.3  貝葉斯派和正態分佈
    5.2.4  貝葉斯統計和熵的關係
  5.3  信息熵的理解
    5.3.1  信息熵簡史
    5.3.2  信息熵定義
    5.3.3  期望編碼長度解釋
    5.3.4  不確定性公理化解釋
    5.3.5  基於熵的度量
  5.4  最大熵原理
    5.4.1  最大熵的直觀理解
    5.4.2  最大熵解釋自然指數分佈簇
    5.4.3  最大熵解釋最大似然估計
  5.5  小結
  參考文獻
第6章  基於熵的Softmax
  6.1  二項分佈和多項分佈
  6.2  Logistic回歸和Softmax回歸
    6.2.1  廣義線性模型的解釋
    6.2.2  Softmax回歸
    6.2.3  最大熵原理與Softmax回歸的等價性
  6.3  最大熵條件下的Log-Linear
  6.4  多分類界面
    6.4.1  感知機和多分類感知機
    6.4.2  多分類感知機和結構感知機
  6.5  概率圖模型裡面的Log-Linear
  6.6  深度學習裡面的Softmax層
  6.7  小結
  參考文獻
第7章  拉格朗日乘子法
  7.1  凸共軛
    7.1.1  凸共軛的定義
    7.1.2  凸共軛定理
  7.2  拉格朗日對偶
    7.2.1  拉格朗日對偶概述
    7.2.2  Salter條件
    7.2.3  KKT條件
  7.3  Fenchel對偶
  7.4  增廣拉格朗日乘子法
    7.4.1  近端

    7.4.2  增廣拉格朗日乘子法和對偶上升演算法
  7.5  交替方向乘子法
    7.5.1  對偶分解
    7.5.2  交替方向乘子法概述
  7.6  小結
  參考文獻
第8章  隨機梯度下降法
  8.1  隨機梯度下降法概述
    8.1.1  機器學習場景
    8.1.2  隨機梯度下降法的定義
    8.1.3  隨機梯度下降法收斂性分析
    8.1.4  收斂性證明
  8.2  隨機梯度下降法進階Ⅰ:方差縮減
    8.2.1  方差縮減的效果
    8.2.2  方差縮減的實現
  8.3  隨機梯度下降法進階Ⅱ:加速與適應
    8.3.1  加速
    8.3.2  適應
    8.3.3  加速?適應
  8.4  隨機梯度下降法的並行實現
  8.5  小結
  參考文獻
第9章  常見的最優化方法
  9.1  最速下降演算法
    9.1.1  l2范數與梯度下降法
    9.1.2  l1范數與坐標下降演算法
    9.1.3  二次范數與牛頓法
  9.2  步長的設定
    9.2.1  Armijo-Goldstein準則
    9.2.2  Wolfe-Powell準則
    9.2.3  回溯線搜索
  9.3  收斂性分析
    9.3.1  收斂速率
    9.3.2  對目標函數的一些假設
  9.4  一階演算法:梯度下降法
  9.5  二階演算法:牛頓法及其衍生演算法
    9.5.1  牛頓法與梯度下降法的對比
    9.5.2  擬牛頓法
    9.5.3  從二次范數的角度看牛頓法
  9.6  小結
  參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032