幫助中心 | 我的帳號 | 關於我們

機器學習與深度學習演算法基礎

  • 作者:編者:賈壯|責編:張雲靜
  • 出版社:北京大學
  • ISBN:9787301313473
  • 出版日期:2020/09/01
  • 裝幀:平裝
  • 頁數:391
人民幣:RMB 89 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書從機器學習的概念與基本原理開始,介紹了機器學習及近年來流行的深度學習領域的經典模型。閱讀本書可以讓讀者系統地了解機器學習和深度學習領域的基本知識,領會模型演算法的思路與策略。
    本書分為兩篇,共18章。第一篇為經典機器學習模型,主要介紹常用的機器學習經典模型,包括線性回歸、支持向量機模型、邏輯斯蒂回歸、決策樹模型、k近鄰、樸素貝葉斯、線性判別分析和主成分分析、流形學習、聚類演算法、稀疏編碼、直推式支持向量機、集成演算法。第二篇為深度學習模型與方法,剖析神經網路的基本要素,並介紹常用的深度學習模型,包括感知機、卷積神經網路、循環神經網路、生成對抗網路。
    本書試圖從初學者的角度對機器學習和深度學習的經典演算法進行詳細闡述。本書插圖豐富,語言通俗易懂,適合初入機器學習領域的「萌新」,也適合希望將機器學習演算法應用到日常工作中的其他專業從業者,還可供對人工智慧領域感興趣的讀者參考閱讀。

作者介紹
編者:賈壯|責編:張雲靜
    賈壯,畢業於清華大學自動化系,專業為模式識別與智能系統方向。主要從事於機器學習與深度學習在圖像處理以及地球物理領域內的相關應用研究,對機器學習相關演算法有較深的理解。參與過多項機器學習相關工程項目,發表SCI期刊論文及會議論文數篇。曾獲得國家獎學金、數學建模一等獎、優秀畢業生等獎項和榮譽稱號。

目錄
第一篇  經典機器學習模型
  第1章  引言:從線性回歸說起
    1.1  什麼是機器學習
    1.1.1  傳統演算法與機器學習演算法
    1.1.2  線性回歸
    1.2  過擬合與正則化
    1.2.1  樣本量與過擬合
    1.2.2  正則化方法
    1.3  嶺回歸和lasso回歸
    1.3.1  嶺回歸
    1.3.2  lasso回歸
    1.3.3  l1正則化和l2正則化
    1.4  本章小結與代碼實現
    1.5  本章話題:機器學習的一般原理
  第2章  陰陽剖分:支持向量機模型
    2.1  支持向量機模型的基本思路
    2.1.1  支持向量機模型的基本思路
    2.1.2  支持向量機演算法的基本流程
    2.2  數學形式與求解方法
    2.2.1  數學知識補充
    2.2.2  數學模型與理論推導
    2.3  核方法與維度問題
    2.3.1  核方法的含義
    2.3.2  核函數SVM
    2.4  軟間隔支持向量機
    2.4.1  軟間隔的含義
    2.4.2  軟間隔SVM的損失函數
    2.5  本章小結與代碼實現
    2.6  本章話題:高維度,是災難還是契機?
  第3章  化直為曲:邏輯斯蒂回歸
    3.1  邏輯斯蒂回歸的基本原理
    3.1.1  分類問題與回歸問題
    3.1.2  邏輯斯蒂回歸演算法思路
    3.2  邏輯斯蒂函數
    3.2.1  邏輯斯蒂函數的由來
    3.2.2  邏輯斯蒂函數的優勢
    3.3  邏輯斯蒂回歸的數學原理
    3.3.1  邏輯斯蒂回歸的數學形式
    3.3.2  準確率和召回率
    3.4  參數確定的方法
    3.4.1  似然函數簡介
    3.4.2  邏輯斯蒂回歸的損失函數
    3.5  多項邏輯斯蒂回歸
    3.5.1  多分類問題的邏輯斯蒂回歸
    3.5.2  softmax函數
    3.6  本章小結與代碼實現
    3.7  本章話題:廣義線性模型
  第4章  層層拷問:決策樹模型
    4.1  模型思路與演算法流程
    4.1.1  決策樹的思路——以讀心術遊戲為例

    4.1.2  決策樹模型的基本流程
    4.1.3  決策樹模型的關鍵問題
    4.2  特徵選擇原則
    4.2.1  信息增益原則
    4.2.2  信息增益比原則
    4.2.3  基尼係數原則
    4.3  剪枝策略
    4.4  常用決策樹模型:ID3與C4.5演算法
    4.4.1  ID3演算法
    4.4.2  C4.5演算法
    4.5  多變數決策樹簡介
    4.6  本章小結與代碼實現
    4.7  本章話題:資訊理論與特徵選擇
  第5章  近朱者赤:k近鄰模型
    5.1  模型的思路和特點
    5.1.1  模型思路
    5.1.2  懶惰學習與迫切學習
    5.2  模型的相關性質
    5.2.1  數學形式
    5.2.2  損失函數與誤差
    5.2.3  k近鄰模型的改進
    5.3  距離函數與參數選擇
    5.3.1  距離函數
    5.3.2  參數選擇的影響
    5.4  本章小結與代碼實現
    5.5  本章話題:相似性度量
  第6章  執果索因:樸素貝葉斯模型
    6.1  貝葉斯方法的基本概念
    6.1.1  貝葉斯學派與頻率學派
    6.1.2  全概率公式與貝葉斯公式
    6.2  樸素貝葉斯的原理和方法
    6.2.1  樸素貝葉斯的「樸素」假設
    6.2.2  拉普拉斯平滑
    6.3  樸素貝葉斯演算法的步驟與流程
    6.4  生成式模型與判別式模型
    6.5  本章小結與代碼實現
    6.6  本章話題:貝葉斯思維與先驗概念
  第7章  提綱挈領:線性判別分析與主成分分析
    7.1  線性降維的基本思路
    7.2  LDA
    7.2.1  投影的技巧
    7.2.2  類內距離和類間距離
    7.2.3  LDA的求解
    7.3  PCA
    7.3.1  基變換與特徵降維
    7.3.2  方差最大化與PCA原理推導
    7.3.3  PCA的實現步驟
    7.4  LDA與PCA:區別與聯繫
    7.5  本章小結與代碼實現
    7.5.1  LDA實驗:鳶尾花數據集降維分類

    7.5.2  PCA實驗:手寫數字數據集降維
    7.6  本章話題:矩陣的直觀解釋與應用
  第8章  曲面平鋪:流形學習
    8.1  流形與流形學習
    8.2  Isomap的基本思路與實現方法
    8.2.1  測地距離的概念
    8.2.2  計算測地距離:圖論中的Floyd演算法
    8.2.3  由距離到坐標:多維尺度變換方法
    8.3  Isomap演算法步驟
    8.4  LLE的基本思路與實現方法
    8.4.1  LLE的基本思想
    8.4.2  局部線性重構
    8.5  LLE演算法步驟
    8.6  本章小結與代碼實現
    8.7  本章話題:黎曼、非歐幾何與流形感知
  第9章  物以類聚:聚類演算法
    9.1  無監督方法概述
    9.2  聚類的基本目標和評價標準
    9.2.1  聚類的基本目標
    9.2.2  聚類的評價標準
    9.3  基於中心的k-means演算法
    9.3.1  k-means演算法的基本思路
    9.3.2  k-means演算法步驟
    9.3.3  k-means演算法的局限性
    9.4  層次聚類演算法
    9.4.1  層次聚類的基本原理
    9.4.2  層次聚類的AGNES演算法
    9.5  密度聚類演算法:DBSCAN
    9.5.1  DBSCAN演算法的基本思路
    9.5.2  DBSCAN演算法步驟
    9.6  本章小結與代碼實現
    9.7  本章話題:Science上的一種巧妙聚類演算法
  第10章  字典重構:稀疏編碼
    10.1  稀疏編碼的思路
    10.1.1  神經生物學的發現
    10.1.2  過完備性與稀疏性
    10.2  稀疏編碼的數學形式
    10.3  字典學習中的「字典」
    10.3.1  傳統演算法中的「字典」
    10.3.2  「字典」學習的意義
    10.4  本章小結與代碼實現
    10.5  本章話題:壓縮感知理論簡介
  第11章  教學相長:直推式支持向量機
    11.1  半監督學習簡介
    11.2  T-SVM模型
    11.2.1  T-SVM的基本思路
    11.2.2  T-SVM演算法步驟
    11.3  本章小結與代碼實現
    11.4  本章話題:不同樣本集場景下的問題處理策略
  第12章  群策群力:集成學習

    12.1  自舉匯聚和提升
    12.1.1  Bagging演算法和Boosting演算法的基本思路
    12.1.2  Bagging演算法和Boosting演算法的區別與聯繫
    12.2  Bagging演算法的基本步驟
    12.3  Boosting演算法的基本步驟
    12.4  Bagging演算法:以隨機森林演算法為例
    12.4.1  隨機森林演算法
    12.4.2  隨機森林演算法中的隨機性
    12.5  Boosting演算法:以Adaboost演算法為例
    12.5.1  Adaboost演算法的實現步驟
    12.5.2  Adaboost演算法過程分析
    12.6  本章小結與代碼實現
    12.7  本章話題:Adaboost演算法中的分步策略
……
第二篇  深度學習模型與方法

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032