幫助中心 | 我的帳號 | 關於我們

機器學習技術與應用教程(普通高等院校新工科人工智慧+系列教材)

  • 作者:編者:史巧碩//畢曉博//李林昊|責編:戴薇//楊昕
  • 出版社:科學
  • ISBN:9787030709943
  • 出版日期:2022/02/01
  • 裝幀:平裝
  • 頁數:195
人民幣:RMB 52 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書內容涵蓋機器學習基礎知識的各個方面。全書分為10章。第1?3章介紹機器學習的基礎知識和數學基礎;第4?8章介紹常用的有監督學習演算法;第9章介紹常見的無監督學習演算法,討論聚類演算法和PCA降維演算法的相關知識;第10章介紹關聯演算法,並對Apriori演算法、FP-growth演算法的原理進行詳細闡述。
    本書適合普通高等院校非電腦專業開設人工智慧基礎應用相關課程的教師和學生使用,也適合準備成為數據挖掘工程師的相關人員參考。

作者介紹
編者:史巧碩//畢曉博//李林昊|責編:戴薇//楊昕

目錄
第1章  緒論
  1.1  機器學習與人工智慧概述
    1.1.1  人工智慧的發展歷程
    1.1.2  人工智慧的四個要素
    1.1.3  人工智慧與機器學習
  1.2  我國人工智慧行業發展現狀
  1.3  機器學習的發展歷程
  1.4  機器學習的應用
第2章  機器學習基本概念
  2.1  機器學習的定義
  2.2  機器學習的任務
    2.2.1  有監督學習
    2.2.2  無監督學習
    2.2.3  半監督學習
    2.2.4  強化學習
  2.3  機器學習中的常用術語
  2.4  偏差與方差
  2.5  機器學習的工作流程
  2.6  Scikit-Learn
    2.6.1  Scikit-Learn簡介
    2.6.2  Scikit-Learn的安裝
    2.6.3  Scikit-Learn的使用
第3章  機器學習的數學基礎
  3.1  線性代數
    3.1.1  標量、向量、矩陣和張量
    3.1.2  矩陣和向量相乘
    3.1.3  向量內積
    3.1.4  向量外積
    3.1.5  行列式和跡
  3.2  概率論
    3.2.1  離散隨機變數
    3.2.2  數學期望
    3.2.3  二維離散隨機變數和統計獨立性
    3.2.4  二維隨機變數函數的數學期望
    3.2.5  條件概率
    3.2.6  全概率公式和貝葉斯公式
    3.2.7  隨機向量
    3.2.8  期望值、均值向量和協方差矩陣
    3.2.9  連續型隨機變數
  3.3  基尼指數和熵
    3.3.1  基尼指數
    3.3.2  熵
第4章  線性回歸
  4.1  線性回歸模型
    4.1.1  回歸問題
    4.1.2  線性回歸模型實例
  4.2  最小二乘法
    4.2.1  最小二乘法的求解過程
    4.2.2  線性回歸演算法的實現
    4.2.3  用Scikit-Learn實現線性回歸

    4.2.4  最小二乘法的局限性
  4.3  梯度下降法
    4.3.1  梯度下降的基本概念
    4.3.2  梯度下降
  4.4  正則化
  4.5  其他回歸模型
  4.6  回歸模型評價指標
第5章  分類演算法
  5.1  邏輯回歸
    5.1.1  分類問題
    5.1.2  邏輯回歸模型
    5.1.3  決策邊界
    5.1.4  邏輯回歸的代價函數
    5.1.5  分類模型性能指標
    5.1.6  邏輯回歸實例
    5.1.7  邏輯回歸的優缺點
  5.2  樸素貝葉斯分類
    5.2.1  貝葉斯定理
    5.2.2  樸素貝葉斯分類演算法
    5.2.3  樸素貝葉斯實例
    5.2.4  樸素貝葉斯分類演算法的優缺點
  5.3  生成模型與判別模型
  5.4  KNN模型
    5.4.1  KNN演算法原理
    5.4.2  KNN演算法的基本過程
    5.4.3  KNN演算法的實現
    5.4.4  使用Scikit-Learn實現KNN分類
    5.4.5  KNN演算法的優缺點
  5.5  惰性學習模型和非參數模型
第6章  決策樹
  6.1  決策樹的概念
  6.2  特徵選擇
    6.2.1  特徵選擇問題
    6.2.2  信息增益
    6.2.3  信息增益比
    6.2.4  基尼指數的選擇
  6.3  剪枝處理
  6.4  常見決策樹演算法
    6.4.1  ID3決策樹演算法
    6.4.2  C4.5決策樹演算法
    6.4.3  CART決策樹演算法
  6.5  使用Scikit-Learn類庫創建決策樹
    6.5.1  創建決策樹
    6.5.2  決策樹分類演算法的優缺點
第7章  從感知機到支持向量機與人工神經網路
  7.1  感知機
    7.1.1  感知機模型
    7.1.2  感知機模型的損失函數
    7.1.3  感知機模型的優化方法
    7.1.4  感知機學習演算法

    7.1.5  感知機的局限性
  7.2  支持向量機
    7.2.1  線性可分的支持向量機
    7.2.2  線性支持向量機以及軟間隔最大化
    7.2.3  非線性支持向量機
    7.2.4  使用Scikit-Learn實現支持向量機分類演算法
    7.2.5  支持向量機分類演算法的優缺點
  7.3  人工神經網路
    7.3.1  神經網路結構
    7.3.2  人工神經網路的訓練
第8章  集成學習
  8.1  Bagging
    8.1.1  Bagging演算法的過程和優點
    8.1.2  Bagging的偏差和方差
  8.2  Bagging框架的代表演算法——隨機森林
    8.2.1  隨機森林隨機性的體現
    8.2.2  隨機森林的構建過程
  8.3  Boosting
    8.3.1  Boosting模型的工作機制
    8.3.2  Boosting模型的兩個核心問題
    8.3.3  Boosting的偏差和方差
  8.4  Boosting框架的代表演算法——AdaBoost演算法
    8.4.1  演算法原理
    8.4.2  演算法步驟
    8.4.3  AdaBoost演算法的Python實現
  8.5  GBDT
  8.6  XGBoost
    8.6.1  XGBoost簡介
    8.6.2  XGBoost的優點
第9章  聚類演算法
  9.1  k-means聚類演算法
    9.1.1  經典k-means聚類演算法
    9.1.2  x-means聚類演算法
  9.2  分層聚類演算法
    9.2.1  簇之間的距離定義
    9.2.2  層次聚類演算法的原理及過程舉例
    9.2.3  分層聚類演算法的Python實現
  9.3  降維演算法
    9.3.1  主成分分析
    9.3.2  因子分析
    9.3.3  線性判別分析
  9.4  PCA降維演算法的實現
    9.4.1  基於特徵值分解協方差矩陣實現PCA演算法
    9.4.2  基於SVD協方差矩陣實現PCA演算法
第10章  關聯演算法
  10.1  基本概念
  10.2  Apriori演算法
    10.2.1  Apriori演算法思想
    10.2.2  Apriori演算法流程
  10.3  FP-growth演算法

    10.3.1  FP-growth數據結構
    10.3.2  FP-growth演算法的建立過程
    10.3.3  FP Tree的挖掘
    10.3.4  FP-growth演算法歸納
參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032