幫助中心 | 我的帳號 | 關於我們

模式識別和機器學習基礎/智能科學與技術叢書

  • 作者:(美)烏利塞斯·布拉加-內托|責編:曲熠|譯者:潘巍//歐陽建權//劉瑩//趙地//蘇統華
  • 出版社:機械工業
  • ISBN:9787111735267
  • 出版日期:2023/10/01
  • 裝幀:平裝
  • 頁數:246
人民幣:RMB 119 元      售價:
放入購物車
加入收藏夾

內容大鋼
    模式識別和機器學習是人工智慧應用的基礎。本書將模式識別任務按照監督學習和無監督學習兩種方式進行組織。第1章討論模式識別和機器學習的內在關係,介紹了兩者的基礎知識和模式識別的設計過程。第2章和第3章介紹了最優化的和常規的基於實例的分類問題。第4?6章檢驗了參數的、非參數的和函數逼近的分類規則。之後在第7章和第8章就分類的誤差估計和模型選擇對分類模型的性能進行討論。第9章介紹了能夠提高分類模型的性能並減少存儲空間的降維技術。第10章和第11章分別介紹了聚類分析技術和回歸模型。本書適合相關專業高年級本科生和研究生,以及該領域的從業人員閱讀。

作者介紹
(美)烏利塞斯·布拉加-內托|責編:曲熠|譯者:潘巍//歐陽建權//劉瑩//趙地//蘇統華

目錄
譯者序
前言
第1章  概述
  1.1  模式識別與機器學習
  1.2  數學基礎設置
  1.3  預測
  1.4  預測誤差
  1.5  監督學習與無監督學習
  1.6  複雜性權衡
  1.7  設計周期
  1.8  應用實例
    1.8.1  生物信息學
    1.8.2  材料信息學
  1.9  文獻註釋
第2章  優分類
  2.1  無特徵分類
  2.2  有特徵分類
  2.3  貝葉斯分類器
  2.4  貝葉斯誤差
  2.5  高斯模型
    2.5.1  同方差情況
    2.5.2  異方差情況
  2.6  其他主題
    2.6.1  極小極大分類
    2.6.2  F-誤差
    2.6.3  貝葉斯決策理論
    *2.6.4  分類問題的嚴格表達
  2.7  文獻註釋
  2.8  練習
  2.9  Python作業
第3章  基於實例的分類
  3.1  分類規則
  3.2  分類錯誤率
  *3.3  一致性
  3.4  沒有免費午餐定理
  3.5  其他主題
    3.5.1  集成分類
    3.5.2  混合抽樣與獨立抽樣
  3.6  文獻註釋
  3.7  練習
  3.8  Python作業
第4章  參數分類
  4.1  參數替換規則
  4.2  高斯判別分析
    4.2.1  線性判別分析
    4.2.2  二次判別分析
  4.3  邏輯斯諦分類
  4.4  其他主題
    4.4.1  正則化判別分析
    *4.4.2  參數規則的一致性

    4.4.3  貝葉斯參數規則
  4.5  文獻註釋
  4.6  練習
  4.7  Python作業
第5章  非參數分類
  5.1  非參數替換規則
  5.2  直方圖分類
  5.3  最近鄰分類
  5.4  核分類
  5.5  Cover-Hart定理
  *5.6  Stone定理
  5.7  文獻註釋
  5.8  練習
  5.9  Python作業
第6章  函數逼近分類
  6.1  支持向量機
    6.1.1  可分數據的線性支持向量機
    6.1.2  一般線性支持向量機
    6.1.3  非線性支持向量機
  6.2  神經網路
    6.2.1  反向傳播訓練
    6.2.2  卷積神經網路
    *6.2.3  神經網路的普遍逼近性質
    6.2.4  普遍一致性定理
  6.3  決策樹
  6.4  有序分類器
  6.5  文獻註釋
  6.6  練習
  6.7  Python作業
第7章  分類誤差估計
  7.1  誤差估計規則
  7.2  誤差估計性能
    7.2.1  偏差分佈
    7.2.2  偏差、方差、均方根和尾概率
    *7.2.3  一致性
  7.3  測試集誤差估計
  7.4  再代入誤差估計
  7.5  交叉驗證
  7.6  自助方法
  7.7  增強誤差估計
  7.8  其他主題
    7.8.1  凸誤差估計器
    7.8.2  平滑誤差估計器
    7.8.3  貝葉斯誤差估計
  7.9  文獻註釋
  7.10  練習
  7.11  Python作業
第8章  分類模型選擇
  8.1  分類複雜性
  8.2  Vapnik-Chervonenkis理論

    *8.2.1  有限模型選擇
    8.2.2  打散係數與VC維度
    8.2.3  幾種分類規則中的VC參數
    8.2.4  Vapnik-Chervonenkis定理
    8.2.5  沒有免費午餐定理
  8.3  模型選擇方法
    8.3.1  驗證誤差最小化
    8.3.2  訓練集誤差最小化
    8.3.3  結構性風險最小化
  8.4  文獻註釋
  8.5  練習
第9章  降維
  9.1  面向分類任務的特徵提取
  9.2  特徵選擇
    9.2.1  窮舉搜索
    9.2.2  單變數貪婪搜索
    9.2.3  多變數貪婪搜索
    9.2.4  特徵選擇與分類複雜性
    9.2.5  特徵選擇與誤差估計
  9.3  主成分分析
  9.4  多維縮放
  9.5  因子分析
  9.6  文獻註釋
  9.7  練習
  9.8  Python作業
第10章  聚類
  10.1  K-Means演算法
  10.2  高斯混合模型
    10.2.1  期望大化方法
    10.2.2  與K-Means的關係
  10.3  層次聚類
  10.4  自組織映射
  10.5  文獻註釋
  10.6  練習
  10.7  Python作業
第11章  回歸
  11.1  優回歸
  11.2  基於樣本的回歸
  11.3  參數回歸
    11.3.1  線性回歸
    11.3.2  高斯馬爾可夫定理
    11.3.3  補償最小二乘法
  11.4  非參數回歸
    11.4.1  核回歸
    11.4.2  高斯過程回歸
  11.5  函數近似回歸
  11.6  誤差估計
  11.7  變數選擇
    11.7.1  Wrapper搜索
    11.7.2  統計檢驗

    11.7.3  LASSO和ElasticNet
  11.8  模型選擇
  11.9  文獻註釋
  11.10  練習
  11.11  Python作業
附錄
參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032