幫助中心 | 我的帳號 | 關於我們

機器學習基礎(第2版題庫微課視頻版)/清華科技大講堂

  • 作者:編者:呂雲翔//王淥汀|責編:賈斌
  • 出版社:清華大學
  • ISBN:9787302664093
  • 出版日期:2024/06/01
  • 裝幀:平裝
  • 頁數:203
人民幣:RMB 59 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書以機器學習演算法為主題,詳細介紹演算法的理論細節與應用方法。全書共19章,分別介紹了邏輯回歸及最大嫡模型、k-近鄰模型、決策樹模型、樸素貝葉斯分類器模型、支持向量機模型、集成學習框架EM演算法、降維演算法、聚類演算法、神經網路模型等基礎模型或演算法,以及8個綜合項目實例。本書重視理論與實踐相結合,希望為讀者提供全面而細緻的學習指導。
    本書適合機器學習初學者、相關行業從業人員以及高等院校電腦科學與技術、軟體工程等相關專業的師生閱讀。

作者介紹
編者:呂雲翔//王淥汀|責編:賈斌

目錄
第1章  機器學習概述
  1.1  機器學習的組成
  1.2  分類問題及回歸問題
  1.3  監督學習、半監督學習和無監督學習
  1.4  生成模型及判別模型
  1.5  模型評估
    1.5.1  訓練誤差及泛化誤差
    1.5.2  過擬合及欠擬合
  1.6  正則化
  1.7  Scikit-learn模塊
    1.7.1  數據集
    1.7.2  模型選擇
  習題1
第2章  邏輯回歸及最大熵模型
  2.1  線性回歸
    2.1.1  一元線性回歸
    2.1.2  多元線性回歸
  2.2  廣義線性回歸
    2.2.1  邏輯回歸
    2.2.2  多分類邏輯回歸
    2.2.3  交叉熵損失函數
  2.3  最大熵模型
    2.3.1  最大熵模型的導出
    2.3.2  最大熵模型與邏輯回歸之間的關係
  2.4  評價指標
    2.4.1  混淆矩陣
    2.4.2  準確率
    2.4.3  精確率與召回率
    2.4.4  PR曲線
    2.4.5  ROC曲線
  2.5  實例:基於邏輯回歸實現乳腺癌預測
  習題2
第3章  k-近鄰演算法
  3.1  女值的選取
  3.2  距離的度量
  3.3  快速檢索
  3.4  實例:基於k-近鄰演算法實現鳶尾花分類
  習題3
第4章  決策樹
  4.1  特徵選擇
    4.1.1  信息增益
    4.1.2  信息增益比
  4.2  決策樹生成演算法CART
  4.3  決策樹剪枝
    4.3.1  預剪枝
    4.3.2  后剪枝
  4.4  實例:基於決策樹實現葡萄酒分類
  習題4
第5章  樸素貝葉斯分類器
  5.1  極大似然估計

  5.2  樸素貝葉斯分類
  5.3  拉普拉斯平滑
  5.4  樸素貝葉斯分類器的極大似然估計解釋
  5.5  實例:基於樸素貝葉斯實現垃圾簡訊分類
  習題5
第6章  支持向量機
  6.1  最大間隔及超平面
  6.2  線性可分支持向量機
  6.3  線性支持向量機
  6.4  合頁損失函數
  6.5  核技巧
  6.6  二分類問題與多分類問題
    6.6.1  一對一
    6.6.2  一對多
    6.6.3  多對多
  6.7  實例:基於支持向量機實現葡萄酒分類
  習題6
第7章  集成學習
  7.1  偏差與方差
  7.2  Bagging及隨機森林
    7.2.1  Bagging
    7.2.2  隨機森林
  7.3  Boosting及AdaBoost
    7.3.1  Boosting
    7.3.2  AdaBoost
  7.4  提升樹
    7.4.1  殘差提升樹
    7.4.2  GBDT
    7.4.3  XGBoost
  7.5  Stacking
  7.6  實例:基於梯度下降樹實現波士頓房價預測
  習題7
第8章  EM演算法及其應用
  8.1  Jensen不等式
  8.2  EM演算法
  8.3  高斯混合模型(GMM)
  8.4  隱馬爾可夫模型
    8.4.1  計算觀測概率的輸出
    8.4.2  估計隱馬爾可夫模型的參數
    8.4.3  隱變數序列預測
  8.5  實例:基於高斯混合模型實現鳶尾花分類
  習題8
第9章  降維
  9.1  主成分分析
    9.1.1  方差即協方差的無偏估計
    9.1.2  實例:基於主成分分析實現鳶尾花數據降維
  9.2  奇異值分解
    9.2.1  奇異值分解的構造
    9.2.2  奇異值分解用於數據壓縮
    9.2.3  SVD與PCA的關係

    9.2.4  奇異值分解的幾何解釋
    9.2.5  實例:基於奇異值分解實現圖片壓縮
  習題9
第10章  聚類
  10.1  距離度量
    10.1.1  閔可夫斯基距離
    1O.1.2  餘弦相似度
    10.1.3  馬氏距離
    10.1.4  漢明距離
  10.2  層次聚類
  10.3  K-Means聚類
  10.4  K-Medoids聚類
  10.5  DBSCAN
  10.6  實例:基於K-Means實現鳶尾花聚類
  習題10
第11章  神經網路與深度學習
  11.1  神經元模型
  11.2  多層感知機
  11.3  損失函數
  11.4  反向傳播演算法
    11.4.1  梯度下降法
    11.4.2  梯度消失及梯度爆炸
  11.5  卷積神經網路
    11.5.1  卷積
    11.5.2  池化
    11.5.3  網路架構
  11.6  循環神經網路
  11.7  生成對抗網路
  11.8  圖卷積神經網路
  11.9  深度學習發展
  11.10  實例:基於卷積神經網路實現手寫數字識別
    11.10.1  MNIST數據集
    11.10.2  基於卷積神經網路的手寫數字識別
  習題11
第12章  案例:用戶流失預警
  12.1  讀入數據
  12.2  數據預處理和自變數標準化
  12.3  五折交叉驗證
  12.4  代入三種模型
  12.5  調整prob閾值,輸出精度評估
第13章  案例:基於回歸問題和XGBoost模型的房價預測
  13.1  XGBoost模型介紹
  13.2  技術方案
    13.2.1  數據分析
    13.2.2  XGBoost模型參數
    13.2.3  調參過程
  13.3  完整代碼及結果展示
第14章  案例:基於K-Means演算法的鳶尾花數據聚類和可視化
  14.1  數據及工具簡介
    14.1.1  Iris數據集(鳶尾花數據集)

    14.1.2  T1kinter
  14.2  案例分析
    14.2.1  模塊引入
    14.2.2  布局圖形界面
    14.2.3  讀取數據文件
    14.2.4  聚類
    14.2.5  聚類結果可視化
    14.2.6  誤差分析及其可視化
    14.2.7  使用流程
第15章  案例:影評數據分析與電影推薦
  15.1  明確目標與準備數據
  15.2  工具選擇
  15.3  初步分析
    15.3.1  用戶角度分析
    15.3.2  電影角度分析
  15.4  電影推薦
第16章  案例:股價預測
  16.1  使用Tsfresh進行升維和特徵工程
  16.2  程序設計思路
  16.3  程序設計步驟
    16.3.1  讀入並分析數據
    16.3.2  移窗
    16.3.3  升維
    16.3.4  方差過濾
    16.3.5  使用AdaBoostRegressor模型進行回歸預測
    16.3.6  預測結果分析
第17章  案例:使用CRF實現命名實體識別
  17.1  模型定義
  17.2  數據預處理
  17.3  模型訓練
  17.4  模型預測
第18章  案例:利用手機的購物評論分析手機特徵
  18.1  數據準備
  18.2  數據分析
    18.2.1  模型介紹
    18.2.2  演算法應用
    18.2.3  名詞提取
    18.2.4  情感分析
第19章  案例:基於CNN的手寫數字識別
  19.1  MINST數據集介紹與分析
  19.2  基於CNN的構建與訓練
參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032