幫助中心 | 我的帳號 | 關於我們

Python機器學習演算法及應用/大數據與人工智慧技術叢書

  • 作者:編者:梁佩瑩|責編:黃芝//張愛華
  • 出版社:清華大學
  • ISBN:9787302664482
  • 出版日期:2024/07/01
  • 裝幀:平裝
  • 頁數:308
人民幣:RMB 89.8 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書以Python 3.10.7為平台,以實際應用為背景,通過「概述+經典應用」的形式,深入淺出地介紹Python機器學習演算法及應用的相關知識。全書共12章,主要內容包括在數據上的電腦學習能力、簡單的機器學習分類演算法、sklearn機器學習分類器、數據預處理、降維實現數據壓縮、不同模型的集成學習、連續變數的回歸分析、數據的聚類分析、從單層到多層的人工神經網路、使用深度卷積神經網路實現圖像分類、使用循環神經網路實現序列建模、使用生成對抗網路合成新數據等。通過本書的學習,讀者可領略到Python的簡單、易學、易讀、易維護等特點,同時感受到利用Python實現機器學習的普遍性與專業性。
    本書可作為高等學校相關專業本科生和研究生的學慣用書,也可作為相關專業科研人員、學者、工程技術人員的參考用書。

作者介紹
編者:梁佩瑩|責編:黃芝//張愛華

目錄
第1章  在數據上的電腦學習能力
  1.1  轉換機器學習
    1.1.1  轉換機器學習簡介
    1.1.2  轉換機器學習對比其他方法
    1.1.3  轉換機器學習的改進
    1.1.4  轉換機器學習的可解釋性
    1.1.5  轉換機器學習對比深度神經網路
    1.1.6  構建機器學習的生態系統
  1.2  三種不同類型的機器學習
    1.2.1  用監督學習預測未來
    1.2.2  用強化學習解決交互問題
    1.2.3  用無監督學習發現隱藏的結構
    1.2.4  分類和回歸術語
  1.3  評估機器學習模型
    1.3.1  簡單的留出驗證
    1.3.2  K折驗證
    1.3.3  帶有打亂數據的重複K折驗證
  1.4  數據預處理、特徵工程和特徵學習
    1.4.1  神經網路的數據預處理
    1.4.2  特徵工程
  1.5  過擬合和欠擬合
    1.5.1  減小網路大小
    1.5.2  添加權重正則化
    1.5.3  添加dropout正則化
  1.6  機器學習工作流程
    1.6.1  收集數據集
    1.6.2  選擇衡量成功的指標
    1.6.3  確定評估法
    1.6.4  開發更好的模型
    1.6.5  擴大模型規模
    1.6.6  正則化與調節超參數
  1.7  應用Python解決機器學習問題
    1.7.1  使用Python的原因
    1.7.2  Python的安裝
    1.7.3  Jupyter Notebook的安裝與使用
    1.7.4  使用pip安裝第三方庫
  1.8  用於機器學習的軟體包
    1.8.1  NumPy軟體包
    1.8.2  SciPy軟體包
    1.8.3  Pandas軟體包
第2章  簡單的機器學習分類演算法
  2.1  機器學習的早期歷史——人工神經網路
    2.1.1  人工神經網路的定義
    2.1.2  感知機學習規則
  2.2  感知機分類鳶尾
  2.3  自適應神經學習
  2.4  大規模機器學習與隨機梯度下降
    2.4.1  梯度下降演算法概述
    2.4.2  批量梯度下降演算法
    2.4.3  隨機梯度下降演算法

    2.4.4  小批量梯度下降演算法
    2.4.5  梯度下降演算法的調優
第3章  sklearn機器學習分類器
  3.1  分類器的選擇
  3.2  訓練感知器
  3.3  基於邏輯回歸的分類概率建模
    3.3.1  幾個相關定義
    3.3.2  邏輯代價函數的權重
    3.3.3  正則化解決過擬合問題
  3.4  支持向量機最大化分類間隔
    3.4.1  超平面
    3.4.2  函數間隔和幾何間隔
    3.4.3  間隔最大化
  3.5  核SVM解決非線性分類問題
    3.5.1  處理非線性不可分數據的核方法
    3.5.2  核函數實現高維空間的分離超平面
  3.6  決策樹
    3.6.1  何為決策樹
    3.6.2  決策樹生成
    3.6.3  決策樹的剪枝
    3.6.4  使用sklearn預測個人情況
  3.7  K近鄰演算法
    3.7.1  K近鄰演算法的原理
    3.7.2  K近鄰演算法的實現
  3.8  貝葉斯演算法
    3.8.1  貝葉斯演算法的基本思想
    3.8.2  貝葉斯演算法的模型
    3.8.3  用sklearn實現貝葉斯分類
第4章  數據預處理
  4.1  數據清洗
    4.1.1  缺失值處理
    4.1.2  異常值分析
  4.2  對某一列編碼
  4.3  劃分訓練集與測試集
    4.3.1  偽隨機數劃分
    4.3.2  交叉驗證
  4.4  數據特徵縮放
    4.4.1  特徵標準化/方差縮放
    4.4.2  特徵歸一化
  4.5  特徵選擇
    4.5.1  Filter
    4.5.2  Wrapper
    4.5.3  基於L1的正則化
第5章  降維實現數據壓縮
  5.1  數據降維
  5.2  主成分降維
    5.2.1  主成分分析步驟
    5.2.2  PCA演算法實現
    5.2.3  降維映射PCA的實現與應用
  5.3  線性判別分析監督數據壓縮

    5.3.1  線性判別分析基本思想
    5.3.2  LDA公式推導
    5.3.3  拉格朗日函數問題
    5.3.4  LDA實現數據降維
    5.3.5  基於sklearn的線性判別分析
  5.4  非線性映射核主成分降維
    5.4.1  核函數與核技巧
    5.4.2  KPCA與PCA降維實現
第6章  不同模型的集成學習
  6.1  集成學習
  6.2  多投票機制組合分類器
  6.3  Bagging演算法
  6.4  Boosting模型
    6.4.1  Boosting的基本思路
    6.4.2  AdaBoost演算法
    6.4.3  Gradient Boosting演算法
  6.5  Stacking模型
    6.5.1  Stacking原理
    6.5.2  Stacking模型實現
第7章  連續變數的回歸分析
  7.1  線性回歸
    7.1.1  簡單線性回歸
    7.1.2  多元線性回歸
    7.1.3  相關矩陣查看關係
    7.1.4  協方差與相關性
  7.2  最小二乘線性回歸
    7.2.1  梯度下降法
    7.2.2  通過sklearn估計回歸模型的係數
  7.3  使用RANSAC演算法擬合健壯回歸模型
  7.4  線性回歸模型性能的評估
    7.4.1  線性回歸演算法的衡量標準
    7.4.2  線性回歸演算法應用實例
  7.5  利用正則化方法進行回歸
    7.5.1  嶺回歸
    7.5.2  Lasso回歸
    7.5.3  彈性網路
  7.6  將線性回歸模型轉換為多項式回歸
  7.7  用隨機森林處理非線性關係
    7.7.1  決策樹
    7.7.2  隨機森林回歸
第8章  數據的聚類分析
  8.1  K-Means演算法
    8.1.1  K-Means演算法原理
    8.1.2  K-Means演算法步驟
    8.1.3  K-Means演算法的缺陷
    8.1.4  使用sklearn進行K-Means聚類
    8.1.5  肘法與輪廓法
    8.1.6  K-Means++演算法
  8.2  層次聚類
  8.3  DBSCAN演算法

    8.3.1  DBSCAN演算法相關概念
    8.3.2  DBSCAN演算法的優缺點
    8.3.3  DBSCAN演算法實現
第9章  從單層到多層的人工神經網路
  9.1  人工神經網路建模複雜函數
    9.1.1  單隱層神經網路概述
    9.1.2  多層神經網路結構
    9.1.3  前向傳播激活神經網路
    9.1.4  反向傳播
  9.2  識別手寫數字
    9.2.1  神經網路演算法實現數字的識別
    9.2.2  實現多層感知器
第10章  使用深度卷積神經網路實現圖像分類
  10.1  構建卷積神經網路
    10.1.1  深度學習
    10.1.2  CNN的原理
    10.1.3  使用CNN實現手寫體識別
  10.2  使用LeNet-5實現圖像分類
  10.3  使用AlexNet實現圖片分類
    10.3.1  AlexNet結構分析
    10.3.2  AlexNet的分類實現
  10.4  VGG16的遷移學習實現
  10.5  使用OpenCV實現人臉識別
    10.5.1  人臉檢測
    10.5.2  車牌檢測
    10.5.3  目標檢測
  10.6  使用OpenCV實現網路遷移
第11章  使用循環神經網路實現序列建模
  11.1  RNN
    11.1.1  RNN的發展歷史
    11.1.2  什麼是RNN
    11.1.3  LSTM結構和GRU結構
    11.1.4  序列模型實現
  11.2  雙向循環神經網路
  11.3  Seq2Seq模型序列分析
    11.3.1  Seq2Seq模型
    11.3.2  如何訓練Seq2Seq模型
    11.3.3  利用Seq2Seq進行時間序列預測
第12章  使用生成對抗網路合成新數據
  12.1  GAN原理
  12.2  GAN應用
  12.3  強化學習
    12.3.1  強化學習的方式
    12.3.2  強化學習系統與特點
    12.3.3  GAN損失函數
    12.3.4  馬爾可夫決策
    12.3.5  Q-learning演算法
    12.3.6  策略梯度
    12.3.7  強化學習的經典應用

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032