幫助中心 | 我的帳號 | 關於我們

機器學習Python版(英文版)/經典原版書庫

  • 作者:(美)馬克·E.芬納|責編:曲熠
  • 出版社:機械工業
  • ISBN:9787111701033
  • 出版日期:2022/07/01
  • 裝幀:平裝
  • 頁數:535
人民幣:RMB 149 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書面向初學者,使用Python語言以及流行的scikit-learn機器學習庫等資源,通過易於實踐的項目,幫助讀者掌握開發有效的機器學習系統所需的流程、模式和策略。
    本書首先介紹機器學習的基本概念和機器學習系統的評估技術;之後擴展工具庫,引入另外幾種分類和回歸技術以及特徵工程;最後介紹一些較為前沿的新技術,包括組合機器學習模型和自動化特徵工程模型等,並將機器學習應用於圖像處理和文本處理兩個特定領域。本書不依賴於複雜的數學公式,僅要求讀者具備一定的編程基礎,適合學生、數據分析人員、科研人員等各領域的讀者閱讀參考。

作者介紹
(美)馬克·E.芬納|責編:曲熠
    馬克·E.芬納(Mark E.Fenner),Fenner Training and Consulting公司的創始人,自1999年起一直從事電腦和數學領域的教學工作,曾為眾多知名公司和國家級實驗室開發課程並提供培訓。此外,他還從事機器學習、生物信息學和電腦安全方面的研究工作,所參與的項目涉及機器學習和數值演算法的設計和實現、軟體倉庫的安全性分析、蛋白質功能的概率建模以及顯微鏡數據的分析和可視化等。他擁有電腦科學博士學位。

目錄
第一部分  機器學習入門
  第1章  機器學習概論
    1.1  歡迎來到機器學習的世界
    1.2  範圍、術語、預測和數據
    1.2.1  特徵
    1.2.2  目標值和預測值
    1.3  讓機器開始機器學習
    1.4  學習系統舉例
    1.4.1  預測類別:分類器舉例
    1.4.2  預測值:回歸器舉例
    1.5  評估機器學習系統
    1.5.1  準確率
    1.5.2  資源消耗
    1.6  創建機器學習系統的過程
    1.7  機器學習的假設和現實
    1.8  參考閱讀資料
    1.8.1  進一步研究方向
    1.8.2  註釋
  第2章  相關技術背景
    2.1  編程環境配置
    2.2  數學語言的必要性
    2.3  用於解決機器學習問題的軟體
    2.4  概率
    2.4.1  基本事件
    2.4.2  獨立性
    2.4.3  條件概率
    2.4.4  概率分佈
    2.5  線性組合、加權和以及點積
    2.5.1  加權平均
    2.5.2  平方和
    2.5.3  誤差平方和
    2.6  幾何視圖:空間中的點
    2.6.1  直線
    2.6.2  直線拓展
    2.7  表示法和加1技巧
    2.8  漸入佳境:突破線性和非線性
    2.9  NumPy與「數學無所不在」
    2.9.1  一維數組與二維數組
    2.10  浮點數問題
    2.11  參考閱讀資料
    2.11.1  小結
    2.11.2  註釋
  第3章  預測類別:分類入門
    3.1  分類任務
    3.2  一個簡單的分類數據集
    3.3  訓練和測試:請勿「應試教育」
    3.4  評估:考試評分
    3.5  簡單分類器1:最近鄰分類器、遠距離關係和假設
    3.5.1  定義相似性
    3.5.2  k-最近鄰中的k

    3.5.3  答案組合
    3.5.4  k-最近鄰、參數和非參數方法
    3.5.5  建立一個k-最近鄰分類模型
    3.6  簡單分類器2:樸素貝葉斯分類器、概率和違背承諾
    3.7  分類器的簡單評估
    3.7.1  機器學習的性能
    3.7.2  分類器的資源消耗
    3.7.3  獨立資源評估
    3.8  參考閱讀資料
    3.8.1  再次警告:局限性和尚未解決的問題
    3.8.2  小結
    3.8.3  註釋
    3.8.4  練習題
  第4章  預測數值:回歸入門
    4.1  一個簡單的回歸數據集
    4.2  最近鄰回歸和匯總統計
    4.2.1  中心測量:中位數和均值
    4.2.2  構建一個k-最近鄰回歸模型
    4.3  線性回歸和誤差
    4.3.1  地面總是不平坦的:為什麼需要斜坡
    4.3.2  傾斜直線
    4.3.3  執行線性回歸
    4.4  優化:選擇最佳答案
    4.4.1  隨機猜測
    4.4.2  隨機步進
    4.4.3  智能步進
    4.4.4  計算的捷徑
    4.4.5  線性回歸的應用
    4.5  回歸器的簡單評估和比較
    4.5.1  均方根誤差
    4.5.2  機器學習的性能
    4.5.3  回歸過程中的資源消耗
    4.6  參考閱讀資料
    4.6.1  局限性和尚未解決的問題
    4.6.2  小結
    4.6.3  註釋
    4.6.4  練習題
第二部分  通用評估技術
  第5章  機器學習演算法的評估和比較分析
    5.1  評估和大道至簡的原則
    5.2  機器學習階段的術語
    5.2.1  有關機器的重新討論
    5.2.2  更規範的闡述
    5.3  過擬合和欠擬合
    5.3.1  合成數據和線性回歸
    5.3.2  手動操控模型的複雜度
    5.3.3  「恰到好處」原則:可視化過擬合、欠擬合和最佳擬合
    5.3.4  簡單性
    5.3.5  關於過擬合必須牢記的注意事項
    5.4  從誤差到成本

    5.4.1  損失
    5.4.2  成本
    5.4.3  評分
    5.5  (重新)抽樣:以少勝多
    5.5.1  交叉驗證
    5.5.2  分層抽樣
    5.5.3  重複的訓練–測試數據集拆分
    5.5.4  一種更好的方法和混排
    5.5.5  留一交叉驗證
    5.6  分解:將誤差分解為偏差和方差
    5.6.1  數據的方差
    5.6.2  模型的方差
    5.6.3  模型的偏差
    5.6.4  結合所有的因素
    5.6.5  偏差–方差權衡示例
    5.7  圖形可視化評估和比較
    5.7.1  學習曲線:到底需要多少數據
    5.7.2  複雜度曲線
    5.8  使用交叉驗證比較機器學習模型
    5.9  參考閱讀資料
    5.9.1  小結
    5.9.2  註釋
    5.9.3  練習題
  第6章  評估分類器
    6.1  基線分類器
    6.2  準確度以外:分類器的其他度量指標
    6.2.1  從混淆矩陣中消除混淆
    6.2.2  錯誤的方式
    6.2.3  基於混淆矩陣的度量指標
    6.2.4  混淆矩陣編碼
    6.2.5  處理多元類別:多元類別平均
    6.2.6  F1分數
    6.3  ROC曲線
    6.3.1  ROC模式
    6.3.2  二元分類ROC
    6.3.3  AUC:(ROC)曲線下的面積
    6.3.4  多元分類機器學習模型、一對其他和ROC
    6.4  多元分類的另一種方法:一對一
    6.4.1  多元分類AUC第二部分:尋找單一值
    6.5  精確率–召回率曲線
    6.5.1  關於精確率–召回率權衡的說明
    6.5.2  構建精確率–召回率曲線
    6.6  累積響應和提升曲線
    6.7  更複雜的分類器評估:第二階段
    6.7.1  二元分類
    6.7.2  一個新穎的多元分類問題
    6.8  參考閱讀資料
    6.8.1  小結
    6.8.2  註釋
    6.8.3  練習題

  第7章  評估回歸器
    7.1  基線回歸器
    7.2  回歸器的其他度量指標
    7.2.1  創建自定義的評估指標
    7.2.2  其他內置的回歸度量指標
    7.2.3  R
    7.3  殘差圖
    7.3.1  誤差圖
    7.3.2  殘差圖
    7.4  標準化初探
    7.5  使用更複雜的方法評估回歸係數:第二階段
    7.5.1  多個度量指標的交叉驗證結果
    7.5.2  交叉驗證結果匯總
    7.5.3  殘差
    7.6  參考閱讀資料
    7.6.1  小結
    7.6.2  註釋
    7.6.3  練習題
第三部分  更多方法和其他技術
  第8章  更多分類方法
    8.1  重溫分類知識
    8.2  決策樹
    8.2.1  樹構建演算法
    8.2.2  讓我們開始:決策樹時間
    8.2.3  決策樹中的偏差和方差
    8.3  支持向量分類器
    8.3.1  執行支持向量分類器
    8.3.2  SVC中的偏差和方差
    8.4  邏輯回歸
    8.4.1  投注幾率
    8.4.2  概率、幾率和對數幾率
    8.4.3  實現操作:邏輯回歸版本
    8.4.4  邏輯回歸:空間奇異性
    8.5  判別分析
    8.5.1  協方差
    8.5.2  方法
    8.5.3  執行判別分析
    8.6  假設、偏差和分類器
    8.7  分類器的比較:第三階段
    8.7.1  數字
    8.8  參考閱讀資料
    8.8.1  小結
    8.8.2  註釋
    8.8.3  練習題
  第9章  更多回歸方法
    9.1  懲罰框中的線性回歸:正則化
    9.1.1  執行正則化回歸
    9.2  支持向量回歸
    9.2.1  鉸鏈損失
    9.2.2  從線性回歸到正則化回歸,再到支持向量回歸

    9.2.3  實踐應用:支持向量回歸風格
    9.3  分段常數回歸
    9.3.1  實現分段常數回歸器
    9.3.2  模型實現的一般說明
    9.4  回歸樹
    9.4.1  用決策樹實現回歸
    9.5  回歸器比較:第三階段
    9.6  參考閱讀資料
    9.6.1  小結
    9.6.2  註釋
    9.6.3  練習題
  第10章  手動特徵工程:操作數據的樂趣和意義
    10.1  特徵工程的術語和動機
    10.1.1  為什麼選擇特徵工程
    10.1.2  何時開始特徵工程
    10.1.3  特徵工程是如何發生的
    10.2  特徵選擇和數據簡化:清除垃圾
    10.3  特徵縮放
    10.4  離散化
    10.5  分類編碼
    10.5.1  編碼的另一種方式以及無截距的奇怪情況
    10.6  關係和相互作用
    10.6.1  手動特徵構造
    10.6.2  相互作用
    10.6.3  使用轉換器添加特徵
    10.7  對輸入空間和目標的相關操作
    10.7.1  對輸入空間的相關操作
    10.7.2  對目標的相關操作
    10.8  參考閱讀資料
    10.8.1  小結
    10.8.2  註釋
    10.8.3  練習題
  第11章  調整超參數和管道技術
    11.1  模型、參數、超參數
    11.2  調整超參數
    11.2.1  關於電腦科學和機器學習術語的說明
    11.2.2  關於完整搜索的示例
    11.2.3  使用隨機性在大海中撈針
    11.3  遞歸的神奇世界:嵌套交叉驗證
    11.3.1  重溫交叉驗證
    11.3.2  作為模型的網格搜索
    11.3.3  交叉驗證中嵌套的交叉驗證
    11.3.4  關於嵌套交叉驗證的註釋
    11.4  管道技術
    11.4.1  簡單的管道
    11.4.2  複雜的管道
    11.5  管道和調參相結合
    11.6  參考閱讀資料
    11.6.1  小結
    11.6.2  註釋

    11.6.3  練習題
第四部分  高級主題
  第12章  組合機器學習模型
    12.1  集成
    12.2  投票集成
    12.3  裝袋法和隨機森林
    12.3.1  自舉
    12.3.2  從自舉到裝袋法
    12.3.3  隨機森林
    12.4  提升方法
    12.4.1  提升方法的核心理念
    12.5  各種樹集成方法的比較
    12.6  參考閱讀資料
    12.6.1  小結
    12.6.2  註釋
    12.6.3  練習題
  第13章  提供特徵工程的模型
    13.1  特徵選擇
    13.1.1  基於度量特徵的「單步篩選」方法
    13.1.2  基於模型的特徵選擇
    13.1.3  將特徵選擇與機器學習管道相集成
    13.2  基於核的特徵構造
    13.2.1  核激勵因子
    13.2.2  手動核方法
    13.2.3  核方法和核選項
    13.2.4  核化支持向量分類器:支持向量機
    13.2.5  關於SVM的建議和示例
    13.3  主成分分析:一種無監督技術
    13.3.1  預熱:中心化數據
    13.3.2  尋找不同的最佳線路
    13.3.3  第一次執行PCA
    13.3.4  PCA的內部原理
    13.3.5  對一般PCA的評論
    13.3.6  核心PCA和流形方法
    13.4  參考閱讀資料
    13.4.1  小結
    13.4.2  註釋
    13.4.3  練習題
  第14章  領域特徵工程:領域特定的機器學習
    14.1  處理文本
    14.1.1  對文本進行編碼
    14.1.2  文本學習的示例
    14.2  聚類
    14.2.1  k-均值聚類
    14.3  處理圖像
    14.3.1  視覺詞袋
    14.3.2  圖像數據
    14.3.3  端到端系統
    14.3.4  全局視覺詞袋轉換器的完整代碼
    14.4  參考閱讀資料

    14.4.1  小結
    14.4.2  註釋
    14.4.3  練習題
  第15章  連接、擴展和進一步研究方向
    15.1  優化
    15.2  基於原始數據的線性回歸
    15.2.1  線性回歸的可視化視圖
    15.3  基於原始數據構建邏輯回歸
    15.3.1  採用0-1編碼的邏輯回歸
    15.3.2  採用加1減1編碼的邏輯回歸
    15.3.3  邏輯回歸的可視化視圖
    15.4  基於原始數據的SVM
    15.5  神經網路
    15.5.1  線性回歸的神經網路視圖
    15.5.2  邏輯回歸的神經網路視圖
    15.5.3  超越基本神經網路
    15.6  概率圖模型
    15.6.1  抽樣
    15.6.2  線性回歸的概率圖模型視圖
    15.6.3  邏輯回歸的概率圖模型視圖
    15.7  參考閱讀資料
    15.7.1  小結
    15.7.2  註釋
    15.7.3  練習題
附錄A  mlwpy.py程序清單

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032