幫助中心 | 我的帳號 | 關於我們

機器學習基礎/人工智慧與大數據系列

  • 作者:(加)江輝|責編:劉志紅|譯者:郭濤//劉志紅
  • 出版社:電子工業
  • ISBN:9787121492433
  • 出版日期:2025/01/01
  • 裝幀:平裝
  • 頁數:425
人民幣:RMB 169.8 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書以簡潔明了的方式介紹了機器學習的概念、演算法和原理,在理論方面避免了繁重的數學機制和過多的細節,並通過Python和MATLAB對其演算法進行了實現。本書主要分為兩部分,第一部分是機器學習所涉及的數學基礎、基礎理論和機器學習基礎;第二部分是常見的機器學習講解和實現,主要涉及常見的生成式模型和判別式模型。
    本書淺顯易懂,並提供大量的配圖,不僅有助於理解機器學習的重要思想,更有助於感受和體會這個學科領域的魅力,使得自己的付出都能夠得到回報。

作者介紹
(加)江輝|責編:劉志紅|譯者:郭濤//劉志紅

目錄
第1章  導論
  1.1  什麼是機器學習
  1.2  機器學習的基本概念
    1.2.1  分類與回歸
    1.2.2  監督學習與無監督學習
    1.2.3  簡單模型與複雜模型
    1.2.4  參數模型與非參數模型
    1.2.5  過擬合與欠擬合
    1.2.6  偏差-方差權衡
  1.3  機器學習的一般原則
    1.3.1  奧卡姆剃刀
    1.3.2  沒有免費午餐定理
    1.3.3  平滑世界定律
    1.3.4  維度災難
  1.4  機器學習中的高級主題
    1.4.1  強化學習
    1.4.2  元學習
    1.4.3  因果推斷
    1.4.4  其他高級主題
  練習
第2章  數學基礎
  2.1  線性代數
    2.1.1  向量和矩陣
    2.1.2  作為矩陣乘法的線性變換
    2.1.3  基本矩陣運算
    2.1.4  特徵值和特徵向量
    2.1.5  矩陣演算
  2.2  概率與統計
    2.2.1  隨機變數和分佈
    2.2.2  期望值:均值、方差和矩
    2.2.3  聯合、邊際和條件分佈
    2.2.4  常見概率分佈
    2.2.5  隨機變數的變換
  2.3  資訊理論
    2.3.1  信息和熵
    2.3.2  互信息
    2.3.3  KL散度
  2.4  數學優化
    2.4.1  一般形式
    2.4.2  最優條件
    2.4.3  數值優化方法
  練習
第3章  監督機器學習(簡介)
  3.1  概述
  3.2  實例探究
第4章  特徵提取
  4.1  特徵提取:概念
    4.1.1  特徵工程
    4.1.2  特徵選擇
    4.1.3  降維

  4.2  線性降維
    4.2.1  主成分分析
    4.2.2  線性判別分析
  4.3  非線性降維(I):流形學習
    4.3.1  局部線性嵌入
    4.3.2  多維縮放
    4.3.3  隨機鄰域嵌入
  4.4  非線性降維(II):神經網路
    4.4.1  自編碼器
    4.4.2  瓶頸特徵
  實驗室項目一
  練習
  判別模型
第5章  統計學習理論
  5.1  判別模型的制定
  5.2  可學習性
  5.3  泛化邊界
    5.3.1  有限模型空間
    5.3.2  無限模型空間:VC維
  練習
第6章  線性模型
  6.1  感知機
  6.2  線性回歸
  6.3  最小分類誤差
  6.4  邏輯回歸
  6.5  支持向量機
    6.5.1  線性支持向量機
    6.5.2  軟支持向量機
    6.5.3  非線性支持向量機:核技巧
    6.5.4  求解二次規劃
    6.5.5  多類支持向量機
  實驗室項目二
  練習
第7章  學習通用判別模型
  7.1  學習判別模型的通用框架
    7.1.1  機器學習中的常見損失函數
    7.1.2  基於范數的正則化
  7.2  嶺回歸與LASSO
  7.3  矩陣分解
  7.4  字典學習
  實驗室項目三
  練習
第8章  神經網路
  8.1  人工神經網路
    8.1.1  人工神經網路的基本公式
    8.1.2  數學證明:通用近似
  8.2  神經網路結構
    8.2.1  連接層的基本構造塊
    8.2.2  案例分析一:完全連接深度神經網路
    8.2.3  案例分析二:卷積神經網路

    8.2.4  案例分析三:遞歸神經網路
    8.2.5  案例分析四:transformer
  8.3  神經網路的學習演算法
    8.3.1  損失函數
    8.3.2  自動微分法
    8.3.3  隨機梯度下降優化
  8.4  優化的啟髮式和技巧
    8.4.1  其他隨機梯度下降變數優化方法:ADAM
    8.4.2  正則化
    8.4.3  微調技巧
  8.5  端到端學習
  實驗室項目四
  練習
第9章  集成學習
  9.1  整體學習的模擬
  9.2  袋裝法
  9.3  提升法
    9.3.1  梯度提升
    9.3.2  AdaBoost
    9.3.3  梯度樹提升法
  實驗室項目五
  練習
  生成模型
第10章  生成模型概述
  10.1  生成模型的形成
  10.2  貝葉斯決策理論
    10.2.1  分類生成模型
    10.2.2  回歸生成模型
  10.3  統計數據建模
  10.4  密度估計
    10.4.1  最大似然估計
    10.4.2  最大似然分類器
  10.5  生成模型(概括)
  練習
第11章  單峰模型
  11.1  高斯模型
  11.2  多項式模型
  11.3  馬爾可夫鏈模型
  11.4  廣義線性模型
    11.4.1  概率回歸
    11.4.2  泊松回歸
    11.4.3  對數線性模型
  練習
第12章  混合模型
  12.1  構建混合模型
    12.1.1  指數族(e族)
    12.1.2  混合模型的形式化定義
  12.2  期望最大化方法
    12.2.1  輔助函數:消除對數和
    12.2.2  期望最大化演算法

  12.3  高斯混合模型
  12.4  隱馬爾可夫模型
    12.4.1  馬爾可夫模型:序列的混合模型
    12.4.2  評估問題:前向後退演算法
    12.4.3  解碼問題:維特比演算法
    12.4.4  訓練問題:馬爾可夫演算法
  實驗項目六
  練習
第13章  糾纏模型
  13.1  糾纏模型的形成
    13.1.1  糾纏模型框架
    13.1.2  一般糾纏模型的學習
  13.2  線性高斯模型
    13.2.1  概率PCA
    13.2.2  因素分析
  13.3  非高斯模型
    13.3.1  獨立成分分析(ICA)
    13.3.2  獨立因素分析(IFA)
    13.3.3  混合正交投影與估計(HOPE)
  13.4  深度生成模型
    13.4.1  變分自編碼器(VAE)
    13.4.2  生成式對抗網路(GAN)
  練習
第14章  貝葉斯學習
  14.1  構建貝葉斯學習
    14.1.1  貝葉斯推理
    14.1.2  最大化后驗估計
    14.1.3  順序貝葉斯學習
  14.2  共軛先驗
  14.3  近似推理
    14.3.1  拉普拉斯方法
    14.3.2  變分貝葉斯(VB)方法
  14.4  高斯過程
    14.4.1  高斯過程作為非參數先驗
    14.4.2  回歸高斯過程
    14.4.3  分類高斯過程
  練習
第15章  圖模型
  15.1  圖模型概念
  15.2  貝葉斯網路
    15.2.1  條件獨立
    15.2.2  用貝葉斯網路表示生成模型
    15.2.3  學習貝葉斯網路
    15.2.4  推理演算法
    15.2.5  案例研究一:樸素貝葉斯分類器
    15.2.6  案例研究二:潛在狄利克雷分配
  15.3  馬爾可夫隨機場
    15.3.1  等式:勢函數和配分函數
    15.3.2  案例研究三:條件隨機場
    15.3.3  案例研究四:限制玻爾茲曼機器

  練習
附錄A
參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032