幫助中心 | 我的帳號 | 關於我們

機器學習(大數據與人工智慧Python版微課視頻版面向數字化時代高等學校電腦系列教材)

  • 作者:編者:劉昶//余化鵬//周安然|責編:葛鵬程//薛陽
  • 出版社:清華大學
  • ISBN:9787302686248
  • 出版日期:2025/05/01
  • 裝幀:平裝
  • 頁數:149
人民幣:RMB 39.8 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書理論和實踐並重,強化演算法思想講解,既有理論的系統講解、公式的詳細推導,也有Python代碼實現的詳細講解,同時突出獨立思考、提出問題能力的培養。
    全書共9章,涵蓋了機器學習的基本內容,主要包括概述、離散變數與分類、連續變數與線性回歸、維數災難與降維、K均值聚類、生成模型與貝葉斯分類器、自監督與大語言模型、環境監督與強化學習、綜合實驗等。本書適用於本科生及研究生的課程教學。模型和演算法採用Python從零實現,只依賴Python、NumPy和Matplotlib,不依賴已有的機器學習庫,是學習機器學習的最小知識集。
    本書可作為高等院校電腦類相關專業的「機器學習」課程教材,也可作為對機器學習感興趣的讀者的自學讀物,還可作為相關行業技術人員的參考用書。

作者介紹
編者:劉昶//余化鵬//周安然|責編:葛鵬程//薛陽

目錄
第1章  概述
  1.1  什麼是機器學習
    1.1.1  有監督學習
    1.1.2  無監督學習
    1.1.3  自監督學習
    1.1.4  環境監督與強化學習
  1.2  機器學習的三個重要方面
    1.2.1  數據的表示
    1.2.2  模型的最優化
    1.2.3  模型的評估
  1.3  機器學習的歷史與現狀
  1.4  拓展閱讀
  1.5  習題
第2章  離散變數與分類
  2.1  K近鄰(KNN)分類器
    2.1.1  KNN演算法簡介
    2.1.2  KNN演算法的距離計算
    2.1.3  KNN演算法的k值選擇
    2.1.4  KNN演算法的決策規則
    2.1.5  KNN演算法小結
    2.1.6  KNN核心代碼
    2.1.7  習題
  2.2  決策樹
    2.2.1  決策樹的決策過程
    2.2.2  決策樹學習演算法的基本流程
    2.2.3  劃分屬性的選擇
    2.2.4  其他屬性選取指標
    2.2.5  剪枝處理
    2.2.6  決策樹的核心代碼實現
    2.2.7  習題
  2.3  對數幾率回歸
    2.3.1  線性分類模型
    2.3.2  對數幾率函數
    2.3.3  對數幾率回歸
    2.3.4  隨機梯度下降
    2.3.5  與K近鄰和決策樹的比較
    2.3.6  對數幾率回歸的核心代碼實現
    2.3.7  習題
  2.4  支持向量機
    2.4.1  二分類與決策面
    2.4.2  最大間隔分類器
    2.4.3  最優化問題的轉換
    2.4.4  線性不可分的情況
    2.4.5  最優化問題的求解
    2.4.6  使用求解的SVM進行預測
    2.4.7  核函數與核方法
    2.4.8  軟間隔SVM的核心代碼實現
    2.4.9  拓展閱讀
    2.4.10  習題
  2.5  神經網路

    2.5.1  全連接多層神經網路
    2.5.2  萬能逼近定理
    2.5.3  學習演算法
    2.5.4  關於可解釋性的討論
    2.5.5  全連接神經網路的核心代碼實現
    2.5.6  應用到Mnist手寫數字識別
    2.5.7  拓展閱讀
  2.6  習題
第3章  連續變數與線性回歸
  3.1  基本線性回歸
  3.2  嶺回歸
  3.3  基本線性回歸的一個改進:局部加權線性回歸
  3.4  LASSO回歸
  3.5  線性回歸的核心代碼實現
    3.5.1  基本線性回歸
    3.5.2  局部加權線性回歸
    3.5.3  嶺回歸
  3.6  習題
第4章  維數災難與降維
  4.1  基本概念
  4.2  主成分分析
    4.2.1  最大化投影方差推導
    4.2.2  最小化投影誤差推導
    4.2.3  核心代碼實現
  4.3  奇異值分解
    4.3.1  奇異值分解的公式
    4.3.2  奇異值分解的原理
    4.3.3  矩陣的SVD層級分解
    4.3.4  SVD的核心代碼實現
  4.4  習題
第5章  K均值聚類
  5.1  聚類分析概念
  5.2  K-means聚類演算法的原理
  5.3  K-means聚類演算法中k值的選取方式
  5.4  K-means聚類演算法的優缺點
  5.5  K-means++聚類演算法
  5.6  K-means聚類的核心代碼實現
    5.6.1  K-means聚類演算法
    5.6.2  二分K-means聚類演算法
  5.7  習題
第6章  生成模型與貝葉斯分類器
  6.1  貝葉斯最優分類器
  6.2  樸素貝葉斯分類器
  6.3  半樸素貝葉斯分類器和貝葉斯網
  6.4  樸素貝葉斯分類器核心代碼實現
    6.4.1  詞集與情緒分類
    6.4.2  詞袋與垃圾郵件過濾
  6.5  習題
第7章  自監督與大語言模型
  7.1  Transformer

    7.1.1  自注意力
    7.1.2  詞嵌入
    7.1.3  位置編碼
    7.1.4  編碼器和解碼器
  7.2  GPT與大語言模型的預訓練
  7.3  拓展閱讀
第8章  環境監督與強化學習
  8.1  ChatGPT的三階段訓練流程
  8.2  強化學習的形式化
  8.3  策略最優化演算法
    8.3.1  事後獎勵
    8.3.2  基於優勢函數的策略梯度
    8.3.3  近端策略最優化
  8.4  環境構建與訓練獎勵模型
  8.5  拓展閱讀
第9章  綜合實驗
  9.1  K近鄰(KNN)分類器與手寫數字識別任務
  9.2  決策樹與隱形眼鏡類型預測
  9.3  對率回歸與預測病馬死亡
  9.4  支持向量機與預測病馬死亡
  9.5  全連接神經網路與Mnist手寫數字識別
  9.6  線性回歸與預測鮑魚年齡
  9.7  PCA與數據壓縮
  9.8  PCA與數據預處理
  9.9  PCA與特徵臉
  9.10  奇異值分解與餐館菜餚推薦
  9.11  K-means聚類與地理坐標聚類
  9.12  樸素貝葉斯與文本分類
附錄  kNN的最大后驗概率解釋
參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032