幫助中心 | 我的帳號 | 關於我們

機器學習基礎與實戰(人工智慧與大數據專業群人才培養系列教材)

  • 作者:編者:陳鑫|責編:李靜
  • 出版社:電子工業
  • ISBN:9787121447945
  • 出版日期:2023/05/01
  • 裝幀:平裝
  • 頁數:291
人民幣:RMB 59.8 元      售價:
放入購物車
加入收藏夾

內容大鋼
    全書共10章,第1章介紹了機器學習演算法的基本概念、分類及本書開發環境的搭建。第2章介紹了機器學習演算法中經常用到的NumPy相關知識及繪圖工具包Matplotlib。從第3章開始介紹機器學習演算法,第3章介紹了最簡單也是最常用的線性回歸演算法。第4章介紹了搜索演算法,包括梯度下降演算法、隨機梯度下降演算法、小批量梯度下降演算法、牛頓迭代演算法及坐標下降演算法。第5章介紹了二分類的Logistic回歸演算法和多元回歸演算法SoftMax,以及評價分類結果優劣的各種指標。第6章介紹了支持向量機演算法及支持向量機的核函數方法。第7章介紹了樸素貝葉斯演算法。第8章介紹了決策樹優化演算法及由多棵決策樹構成的隨機森林演算法等集成學習演算法。第9章介紹了聚類演算法,包括K均值演算法、合併聚類演算法、DBSCAN演算法等。第10章介紹了降維演算法,主要包括主成分分析法和主成分分析的核方法。每章都包含大量的實戰案例,既有自行實現的演算法,也有直接調用Sklearn工具庫實現的演算法。
    本書配備思考與練習,全書所有的示常式序都提供完整的源代碼,讀者可登錄華信教育資源網或GitHub網站免費下載。
    本書適合作為人工智慧、大數據等專業的學生教材,對於人工智慧相關培訓機構、人工智慧愛好者,也有一定的參考價值。

作者介紹
編者:陳鑫|責編:李靜

目錄
第1章  機器學習演算法概述
  1.1  機器學習
  1.2  機器學習分類
    1.2.1  監督學習
    1.2.2  無監督學習
    1.2.3  強化學習
  1.3  機器學習中的基本概念
  1.4  機器學習環境搭建
    1.4.1  Python安裝
    1.4.2  PyCharm及相關包的下載安裝
    1.4.3  JupyterLab
  1.5  本章小結
  思考與練習
第2章  NumPy和Matplotlib入門
  2.1  NumPy數組基礎
    2.1.1  創建NumPy數組
    2.1.2  NumPy數組的索引與切片
    2.1.3  NumPy數組的變形
    2.1.4  NumPy合併與分割
    2.1.5  NumPy的通用函數
    2.1.6  NumPy數組的聚合運算
    2.1.7  NumPy數組的廣播
    2.1.8  NumPy數組比較、掩碼和布爾邏輯
    2.1.9  NumPy花哨的索引
    2.1.10  NumPy的矩陣運算
  2.2  Matplotlib數據可視化
    2.2.1  線形圖
    2.2.2  散點圖
    2.2.3  直方圖和柱狀圖
    2.2.4  等高線圖
    2.2.5  多子圖
    2.2.6  三維圖像
  2.3  本章小結
  思考與練習
第3章  線性回歸演算法
  3.1  簡單線性回歸
  3.2  正規方程演算法(最小二乘法)
  3.3  多項式回歸
  3.4  線性回歸的正則化演算法
  3.5  Sklearn的線性回歸
  3.6  本章小結
  思考與練習
第4章  機器學習中的搜索演算法
  4.1  梯度下降演算法
    4.1.1  梯度下降演算法概述
    4.1.2  模擬實現梯度下降演算法
    4.1.3  線性回歸中的梯度下降演算法
  4.2  隨機梯度下降演算法
    4.2.1  回歸問題中的隨機梯度下降演算法
    4.2.2  梯度下降演算法與隨機梯度下降演算法的效果對比

  4.3  小批量梯度下降演算法
  4.4  牛頓迭代演算法
    4.4.1  模擬實現牛頓迭代演算法
    4.4.2  線性回歸問題中的牛頓迭代演算法
  4.5  坐標下降演算法
  4.6  Sklearn的隨機梯度下降演算法
  4.7  本章小結
  思考與練習
第5章  Logistic回歸演算法
  5.1  Logistic回歸的基本概念
    5.1.1  Sigmoid()函數
    5.1.2  Logistic模型
  5.2  Logistic回歸演算法的應用
  5.3  評價分類結果
    5.3.1  準確率(Accuracy)
    5.3.2  精確率(Precision)和召回率(Recall)
    5.3.3  ROC曲線和AUC度量
  5.4  多元回歸演算法SoftMax
    5.4.1  SoftMax回歸基本概念
    5.4.2  SoftMax回歸優化演算法
  5.5  Sklearn的Logistic回歸演算法
  5.6  本章小結
  思考與練習
第6章  支持向量機演算法
  6.1  支持向量機的基本概念
    6.1.1  感知機
    6.1.2  支持向量機
    6.1.3  支持向量機的對偶
  6.2  支持向量機優化演算法
  6.3  核方法
  6.4  軟間隔支持向量機
    6.4.1  軟間隔支持向量機的概念
    6.4.2  Hinge損失函數與軟間隔支持向量機
  6.5  Sklearn的SVM庫
    6.5.1  Sklearn SVM演算法庫使用概述
    6.5.2  SVM核函數概述
    6.5.3  SVM分類演算法的使用
    6.5.4  SVM演算法的調參要點
  6.6  本章小結
  思考與練習
第7章  樸素貝葉斯演算法
  7.1  樸素貝葉斯
    7.1.1  數學基礎
    7.1.2  樸素貝葉斯的種類
  7.2  樸素貝葉斯演算法分類
    7.2.1  基於極大似然估計的樸素貝葉斯演算法
    7.2.2  基於貝葉斯估計的樸素貝葉斯演算法
  7.3  Sklearn的樸素貝葉斯演算法
    7.3.1  Sklearn的高斯樸素貝葉斯實現
    7.3.2  Sklearn的多項式樸素貝葉斯實現

    7.3.3  Sklearn的伯努利樸素貝葉斯實現
  7.4  本章小結
  思考與練習
第8章  決策樹演算法
  8.1  決策樹的基本概念
  8.2  決策樹優化演算法
    8.2.1  決策樹回歸問題的CART演算法
    8.2.2  決策樹分類問題的CART演算法
  8.3  CART演算法的實現
    8.3.1  決策樹CART演算法實現
    8.3.2  決策樹回歸演算法實現
    8.3.3  決策樹分類演算法實現
  8.4  Sklearn的決策樹
  8.5  集成學習演算法
    8.5.1  裝袋評估演算法
    8.5.2  隨機森林演算法
    8.5.3  AdaBoost提升
    8.5.4  梯度提升決策樹
  8.6  本章小結
  思考與練習
第9章  聚類演算法
  9.1  K均值演算法
  9.2  合併聚類演算法
  9.3  DBSCAN演算法
  9.4  Sklearn的聚類演算法
    9.4.1  K均值演算法(Kmeans)
    9.4.2  近鄰傳播演算法(Affinity Propagation)
    9.4.3  均值漂移演算法(Mean-shift)
    9.4.4  合併聚類演算法(Agglomerative Clustering)
    9.4.5  帶雜訊的基於密度的空間聚類演算法(DBSCAN)
  9.5  本章小結
  思考與練習
第10章  降維演算法
  10.1  主成分分析法
    10.1.1  演算法思想
    10.1.2  主成分分析法的實現
  10.2  主成分分析的核方法
  10.3  Sklearn的主成分分析法
    10.3.1  Sklearn的PCA演算法
    10.3.2  Sklearn的帶核PCA演算法
  10.4  本章小結
  思考與練習

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032