幫助中心 | 我的帳號 | 關於我們

模式分類(原書第2版典藏版)/電腦科學叢書

  • 作者:(美)理查德·O.杜達//皮特·E.哈特//大衛·G.斯托克|責編:姚蕾|譯者:李宏東//姚天翔
  • 出版社:機械工業
  • ISBN:9787111704287
  • 出版日期:2022/05/01
  • 裝幀:平裝
  • 頁數:530
人民幣:RMB 149 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書是模式識別和場景分析領域奠基性的經典著作。在第2版中,除了保留第1版中關於統計模式識別和結構模式識別的主要內容以外,還新增了許多新理論和新方法,其中包括神經網路、機器學習、數據挖掘、進化計算、不變數理論、隱馬爾可夫模型、統計學習理論和支持向量機等。本書還為模式識別未來的發展指明了方向。書中包含許多實例,各種不同方法的對比,豐富的圖表,以及大量的課後習題和電腦練習。
    本書主要面向電子工程、電腦科學、數學和統計學、媒體處理、模式識別、電腦視覺、人工智慧和認知科學等領域的研究生和高年級本科生,也可作為相關領域科技人員的重要參考書。

作者介紹
(美)理查德·O.杜達//皮特·E.哈特//大衛·G.斯托克|責編:姚蕾|譯者:李宏東//姚天翔

目錄
譯者序
前言
第1章  緒論
  1.1  機器感知
  1.2  一個例子
  1.3  模式識別系統
    1.3.1  感測器
    1.3.2  分割和組織
    1.3.3  特徵提取
    1.3.4  分類器
    1.3.5  后處理
  1.4  設計循環
    1.4.1  數據採集
    1.4.2  特徵選擇
    1.4.3  模型選擇
    1.4.4  訓練
    1.4.5  評價
    1.4.6  計算複雜度
  1.5  學習和適應
    1.5.1  有監督學習
    1.5.2  無監督學習
    1.5.3  強化學習
  1.6  本章小結
  全書各章概要
  文獻和歷史評述
  參考文獻
第2章  貝葉斯決策論
  2.1  引言
  2.2  貝葉斯決策論——連續特徵
  2.3  小誤差率分類
    2.3.1  極小化極大準則
    2.3.2  Neyman*Pearson準則
  2.4  分類器、判別函數及判定面
    2.4.1  多類情況
    2.4.2  兩類情況
  2.5  正態密度
    2.5.1  單變數密度函數
    2.5.2  多元密度函數
  2.6  正態分佈的判別函數
    2.6.1  情況1:Σi=σ2I
    2.6.2  情況2:Σi=Σ
    2.6.3  情況3:Σi=任意
  2.7  誤差概率和誤差積分
  2.8  正態密度的誤差上界
    2.8.1  Chernoff界
    2.8.2  Bhattacharyya界
    2.8.3  信號檢測理論和操作特性
  2.9  貝葉斯決策論——離散特徵
    2.9.1  獨立的二值特徵
  2.10  丟失特徵和雜訊特徵

    2.10.1  丟失特徵
    2.10.2  雜訊特徵
  2.11  貝葉斯置信網
  2.12  複合貝葉斯決策論及上下文
  本章小結
  文獻和歷史評述
  習題
  上機練習
  參考文獻
第3章  *大似然估計和貝葉斯參數估計
  3.1  引言
  3.2  *大似然估計
    3.2.1  基本原理
    3.2.2  高斯情況:μ未知
    3.2.3  高斯情況:μ和Σ均未知
    3.2.4  估計的偏差
  3.3  貝葉斯估計
    3.3.1  類條件密度
    3.3.2  參數的分佈
  3.4  貝葉斯參數估計:高斯情況
    3.4.1  單變數情況:p(μ|)
    3.4.2  單變數情況:p(x|)
    3.4.3  多變數情況
  3.5  貝葉斯參數估計:一般理論
    3.5.1  *大似然方法和貝葉斯方法何時有區別
    3.5.2  無信息先驗和不變性
    3.5.3  Gibbs演算法
  3.6  充分統計量
  3.7  維數問題
    3.7.1  精度、維數和訓練集的大小
    3.7.2  計算複雜度
    3.7.3  過擬合
  3.8  成分分析和判別函數
    3.8.1  主成分分析
    3.8.2  Fisher線性判別分析
    3.8.3  多重判別分析
  3.9  期望*大化演算法
  3.10  隱馬爾可夫模型
    3.10.1  一階馬爾可夫模型
    3.10.2  一階隱馬爾可夫模型
    3.10.3  隱馬爾可夫模型的計算
    3.10.4  估值問題
    3.10.5  解碼問題
    3.10.6  學習問題
  本章小結
  文獻和歷史評述
  習題
  上機練習
  參考文獻
第4章  非參數技術

  4.1  引言
  4.2  概率密度的估計
  4.3  Parzen窗方法
    4.3.1  均值的收斂性
    4.3.2  方差的收斂性
    4.3.3  舉例說明
    4.3.4  分類的例子
    4.3.5  概率神經網路
    4.3.6  窗函數的選取
  4.4  n*近鄰估計
    4.4.1  n*近鄰估計和Parzen窗估計
    4.4.2  后驗概率的估計
  4.5  *近鄰規則
    4.5.1  *近鄰規則的收斂性
    4.5.2  *近鄰規則的誤差率
    4.5.3  誤差界
    4.5.4  *近鄰規則
    4.5.5  *近鄰規則的計算複雜度
  4.6  距離度量和*近鄰分類
    4.6.1  度量的性質
    4.6.2  切空間距離
  4.7  模糊分類
  4.8  RCE網路
  4.9  級數展開逼近
  本章小結
  文獻和歷史評述
  習題
  上機練習
  參考文獻
第5章  線性判別函數
  5.1  引言
  5.2  線性判別函數和判定面
    5.2.1  兩類情況
    5.2.2  多類的情況
  5.3  廣義線性判別函數
  5.4  兩類線性可分的情況
    5.4.1  幾何解釋和術語
    5.4.2  梯度下降演算法
  5.5  感知器準則函數*小化
    5.5.1  感知器準則函數
    5.5.2  單個樣本校正的收斂性證明
    5.5.3  一些直接的推廣
  5.6  鬆弛演算法
    5.6.1  下降演算法
    5.6.2  收斂性證明
  5.7  不可分的情況
  5.8  *小平方誤差方法
    5.8.1  *小平方誤差及偽逆
    5.8.2  與Fisher線性判別的關係
    5.8.3  *優判別的漸近逼近

    5.8.4  Widrow*Hoff 演算法或*小均方演算法
    5.8.5  隨機逼近法
  5.9  Ho*Kashyap演算法
    5.9.1  下降演算法
    5.9.2  收斂性證明
    5.9.3  不可分的情況
    5.9.4  一些相關的演算法
  5.10  線性規劃演算法
    5.10.1  線性規劃
    5.10.2  線性可分情況
    5.10.3  極小化感知器準則函數
  5.11  支持向量機
  5.12  推廣到多類問題
    5.12.1  Kesler構造法
    5.12.2  固定增量規則的收斂性
    5.12.3  MSE演算法的推廣
  本章小結
  文獻和歷史評述
  習題
  上機練習
  參考文獻
第6章  多層神經網路
  6.1  引言
  6.2  前饋運算和分類
    6.2.1  一般的前饋運算
    6.2.2  多層網路的表達能力
  6.3  反向傳播演算法
    6.3.1  網路學習
    6.3.2  訓練協議
    6.3.3  學習曲線
  6.4  誤差曲面
    6.4.1  一些小型網路
    6.4.2  異或問題
    6.4.3  較大型的網路
    6.4.4  關於多重極小
  6.5  反向傳播作為特徵映射
    6.5.1  隱含層的內部表示——權值
  6.6  反向傳播、貝葉斯理論及概率
    6.6.1  貝葉斯判別與神經網路
    6.6.2  作為概率的輸出
  6.7  相關的統計技術
  6.8  改進反向傳播的一些實用技術
    6.8.1  激活函數
    6.8.2  sigmoid函數的參數
    6.8.3  輸入信號尺度變換
    6.8.4  目標值
    6.8.5  帶雜訊的訓練法
    6.8.6  人工「製造」數據
    6.8.7  隱單元數
    6.8.8  權值初始化

    6.8.9  學習率
    6.8.10  衝量項
    6.8.11  權值衰減
    6.8.12  線索
    6.8.13  在線訓練、隨機訓練或成批訓練
    6.8.14  停止訓練
    6.8.15  隱含層數
    6.8.16  誤差準則函數
  6.9  二階技術
    6.9.1  赫森矩陣
    6.9.2  牛頓法
    6.9.3  Quickprop演算法
    6.9.4  共軛梯度法
  6.10  其他網路和訓練演算法
    6.10.1  徑向基函數網路
    6.10.2  特殊的基函數
    6.10.3  匹配濾波器
    6.10.4  卷積網路
    6.10.5  遞歸網路
    6.10.6  級聯相關
  6.11  正則化、複雜度調節和剪枝
  本章小結
  文獻和歷史評述
  習題
  上機練習
  參考文獻
第7章  隨機方法
  7.1  引言
  7.2  隨機搜索
    7.2.1  模擬退火
    7.2.2  玻耳茲曼因子
    7.2.3  確定性模擬退火
  7.3  玻耳茲曼學習
    7.3.1  可見狀態的隨機玻耳茲曼學習
    7.3.2  丟失特徵和類別約束
    7.3.3  確定性玻耳茲曼學習
    7.3.4  初始化和參數設置
  7.4  玻耳茲曼網路和圖示模型
  7.5  進化方法
    7.5.1  遺傳演算法
    7.5.2  其他啟髮式方法
    7.5.3  遺傳演算法如何起作用
  7.6  遺傳規劃
  本章小結
  文獻和歷史評述
  習題
  上機練習
  參考文獻
第8章  非度量方法
  8.1  引言

  8.2  判定樹
  8.3  CART
    8.3.1  分支數目
    8.3.2  查詢的選取與節點不純度
    8.3.3  分支停止準則
    8.3.4  剪枝
    8.3.5  葉節點的標記
    8.3.6  計算複雜度
    8.3.7  特徵選擇
    8.3.8  多元判定樹
    8.3.9  先驗概率和代價函數
    8.3.10  屬性丟失問題
  8.4  其他樹方法
    8.4.1  ID
    8.4.2  C4.
    8.4.3  哪種樹分類器是*優的
  8.5  串的識別
    8.5.1  串匹配
    8.5.2  編輯距離
    8.5.3  計算複雜度
    8.5.4  容錯的串匹配
    8.5.5  帶通配符的串匹配
  8.6  文法方法
    8.6.1  文法
    8.6.2  串文法的類型
    8.6.3  利用文法的識別
  8.7  文法推斷
  8.8  基於規則的方法
  本章小結
  文獻和歷史評述
  習題
  上機練習
  參考文獻
第9章  獨立於演算法的機器學習
  9.1  引言
  9.2  沒有天生優越的分類器
    9.2.1  沒有免費的午餐定理
    9.2.2  醜小鴨定理
    9.2.3  *小描述長度
    9.2.4  *小描述長度原理
    9.2.5  避免過擬合及Occam剃刀原理
  9.3  偏差和方差
    9.3.1  回歸中的偏差和方差關係
    9.3.2  分類中的偏差和方差關係
  9.4  統計量估計中的重採樣技術
    9.4.1  刀切法(jackknife)
    9.4.2  自助法(bootstrap)
  9.5  分類器設計中的重採樣技術
    9.5.1  bagging演算法
    9.5.2  boosting法

    9.5.3  基於查詢的學習
    9.5.4  arcing、基於查詢的學習、偏差和方差
  9.6  分類器的評價和比較
    9.6.1  參數模型
    9.6.2  交叉驗證
    9.6.3  分類準確率的「刀切法」和「自助法」估計
    9.6.4  *大似然模型比較
    9.6.5  貝葉斯模型比較
    9.6.6  問題平均誤差率
    9.6.7  從學習曲線預測*終性能
    9.6.8  單個分割平面的能力
  9.7  組合分類器
    9.7.1  有判別函數的分量分類器
    9.7.2  無判別函數的分量分類器
  本章小結
  文獻和歷史評述
  習題
  上機練習
  參考文獻
  *10章無監督學習和聚類
  10.1  引言
  10.2  混合密度和可辨識性
  10.3  *大似然估計
  10.4  對混合正態密度的應用
    10.4.1  情況1:均值向量未知
    10.4.2  情況2:所有參數未知
    10.4.3  ?均值聚類
    10.4.4  模糊?均值聚類
  10.5  無監督貝葉斯學習
    10.5.1  貝葉斯分類器
    10.5.2  參數向量的學習
    10.5.3  判定導向的近似解
  10.6  數據描述和聚類
  10.7  聚類的準則函數
    10.7.1  誤差平方和準則
    10.7.2  相關的*小方差準則
    10.7.3  散布準則
  10.8  迭代*優化
  10.9  層次聚類
    10.9.1  定義
    10.9.2  基於合併的層次聚類方法
    10.9.3  逐步優化的層次聚類
    10.9.4  層次聚類和導出度量
  10.10  驗證問題
  10.11  在線聚類
    10.11.1  聚類數目未知
    10.11.2  自適應共振網
    10.11.3  基於評判的學習
  10.12  圖論方法
  10.13  成分分析

    10.13.1  主成分分析
    10.13.2  非線性成分分析
    10.13.3  獨立成分分析
  10.14  低維數據表示和多維尺度變換
    10.14.1  自組織特徵映射
    10.14.2  聚類與降維
  本章小結
  文獻和歷史評述
  習題
  上機練習
  參考文獻
附錄A  數學基礎
索引

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032