幫助中心 | 我的帳號 | 關於我們

Python機器學習核心演算法編程實例

  • 作者:編者:丁偉雄|責編:陳韋凱
  • 出版社:電子工業
  • ISBN:9787121382475
  • 出版日期:2019/12/01
  • 裝幀:平裝
  • 頁數:352
人民幣:RMB 78 元      售價:
放入購物車
加入收藏夾

內容大鋼
    在大數據時代背景下,機器學習是人工智慧研究領域中一個極其重要的方向,本書是一本機器學習方面的入門讀物,注重理論與實踐相結合,書中以Python 3.6.5為編寫平台,共分13章,主要包括機器學習緒論、線性模型、樹回歸、K-means聚類演算法、樸素貝葉斯、數據降維、支持向量機、隨機森林、人工神經網路、協同過濾演算法、基於矩陣分解的推薦演算法、集成學習、數據預處理等內容。通過本書的學習,除使讀者輕鬆掌握Python外,還能利用Python簡單、快捷地解決各種機器學習問題。本書適合Python初學者,也適合研究Python的廣大科研人員、學者、工程技術人員。

作者介紹
編者:丁偉雄|責編:陳韋凱

目錄
第1章  機器學習緒論
  1.1  機器學習的定義
    1.1.1  緒論
    1.1.2  機器學習發展歷程
    1.1.3  機器學習演算法的分類
  1.2  學習演算法
    1.2.1  監督學習
    1.2.2  無監督學習
  1.3  機器學習應用程序的步驟
  1.4  Python語言
    1.4.1  Python的風格
    1.4.2  Python的優勢
    1.4.3  Python語言的缺點
  1.5  Python的環境搭建
    1.5.1  安裝
    1.5.2  使用pip安裝第三方庫
  1.6  NumPy函數庫基礎
  1.7  Python的基礎知識
    1.7.1  數和表達式
    1.7.2  Python的標識符
    1.7.3  Python的保留字元
    1.7.4  行和縮進
    1.7.5  多行語句
    1.7.6  Python引號
    1.7.7  Python空行
    1.7.8  同一行顯示多條語句
    1.7.9  Print輸出
第2章  線性模型
  2.1  一般線性回歸
    2.1.1  線性回歸公式表示法
    2.1.2  線性回歸的Python實現
  2.2  局部加權線性回歸
  2.3  廣義線性模型
  2.4  邏輯回歸分析
  2.5  牛頓法
    2.5.1  基本牛頓法的原理
    2.5.2  基本牛頓法的流程
    2.5.3  全局牛頓法
    2.5.4  Armijo搜索
    2.5.5  全局牛頓法求解線性回歸模型
  2.6  縮減法
    2.6.1  嶺回歸
    2.6.2  lasso回歸
  2.7  利用線性回歸進行預測
    2.7.1  訓練線性回歸模型
    2.7.2  對新數據的預測
第3章  樹回歸
  3.1  構建決策樹的準備工作
    3.1.1  特徵選擇
    3.1.2  決策樹的生成和修剪

  3.2  Matplotlib註釋繪製樹形圖
  3.3  使用決策樹執行分類
  3.4  決策樹的存儲
  3.5  Sklearn使用決策樹預測隱形眼鏡類型
    3.5.1  實戰背景
    3.5.2  使用Sklearn構建決策樹
  3.6  複雜數據的局部性建模
  3.7  連續型和離散型特徵的樹構建
  3.8  分類回歸樹
    3.8.1  構建樹
    3.8.2  剪枝
    3.8.3  模型樹
    3.8.4  分類回歸的Python實現
第4章  K-means聚類演算法
  4.1  K-means聚類演算法的概述
  4.2  相似性的度量
    4.2.1  閔可夫斯基距離
    4.2.2  曼哈頓距離
    4.2.3  歐氏距離
  4.3  K-means聚類演算法的原理
    4.3.1  K-means聚類演算法的步驟
    4.3.2  K-means演算法與矩陣分解
    4.3.3  K-means聚類演算法的實現
  4.4  K-近鄰演算法
  4.5  各種聚類演算法
    4.5.1  劃分聚類法
    4.5.2  層次聚類法
    4.5.3  密度聚類法
    4.5.4  譜聚類法
    4.5.5  Birch聚類
    4.5.6  混合高斯模型
  4.6  K-means++演算法
    4.6.1  K-means演算法存在的問題
    4.6.2  K-means++演算法的思路
第5章  樸素貝葉斯
  5.1  樸素貝葉斯理論
    5.1.1  貝葉斯決策理論
    5.1.2  條件概率
    5.1.3  全概率公式
    5.1.4  貝葉斯推斷
    5.1.5  樸素貝葉斯推斷
  5.2  樸素貝葉斯演算法
  5.3  樸素貝葉斯演算法的優缺點
第6章  數據降維
  6.1  維度災難與降維
  6.2  高維數據降維的方法
    6.2.1  線性降維
    6.2.2  非線性降維
    6.2.3  SVD降維
    6.2.4  流形學習降維

    6.2.5  多維縮放降維
第7章  支持向量機
  7.1  支持向量機概述
  7.2  分類間隔
    7.2.1  函數間距
    7.2.2  幾何間距
  7.3  拉格朗日乘子
    7.3.1  拉格朗日對偶性
    7.3.2  優化間隔分類器
  7.4  核函數
    7.4.1  核函數的選擇
    7.4.2  鬆弛向量與軟間隔最大化
  7.5  SOM演算法
    7.5.1  坐標上升演算法
    7.5.2  SOM
  7.6  SVM的優缺點
  7.7  SVM的Python實現
第8章  隨機森林
  8.1  什麼是隨機森林
  8.2  集成學習
    8.2.1  集成學習的思想
    8.2.2  集成學習中的典型方法
  8.3  Stacking
    8.3.1  Stacking的基本思想
    8.3.2  Stacking的實現
  8.4  隨機森林演算法
    8.4.1  隨機森林的特點
    8.4.2  隨機森林演算法流程
  8.5  隨機森林演算法實踐
  8.6  美國人口普查年收入50k分類
    8.6.1  數據預處理
    8.6.2  模型訓練及驗證
第9章  人工神經網路
  9.1  感知機模型
    9.1.1  感知機的定義
    9.1.2  感知機的學習策略
    9.1.3  感知機學習演算法
    9.1.4  感知機的Python實現
  9.2  從感知機到神經網路
  9.3  多層前饋神經網路
    9.3.1  BP網路演算法
    9.3.2  BP神經網路的學習過程
    9.3.3  BP神經網路中參數的設置
  9.4  神經網路的Python實現
第10章  協同過濾演算法
  10.1  協同過濾的核心
  10.2  協同過濾的分類
  10.3  相似性的度量方法
    10.3.1  歐氏距離
    10.3.2  皮爾遜相關係數

    10.3.3  餘弦相似度
    10.3.4  用Python實現餘弦相似度的計算
  10.4  基於用戶的協同過濾演算法
    10.4.1  基於物品的協同過濾演算法
    10.4.2  基於矩陣分解的協同過濾演算法
    10.4.3  Python實現
  10.5  基於項的協同過濾演算法
  10.6  利用協同過濾演算法進行推薦
    10.6.1  導入用戶-商品數據
    10.6.2  利用基於用戶的協同過濾演算法進行推薦
    10.6.3  利用基於項的協同過濾演算法進行推薦
第11章  基於矩陣分解的推薦演算法
  11.1  矩陣分解
  11.2  利用矩陣分解進行預測
    11.2.1  損失函數
    11.2.2  損失函數的求解
    11.2.3  加入正則項的損失函數即求解方法
    11.2.4  預測
    11.2.5  程序實現
  11.3  非負矩陣分解
    11.3.1  非負矩陣分解的形式定義
    11.3.2  損失函數
    11.3.3  優化問題的求解
    11.3.4  利用乘法規則進行分解和預測
  11.4  基於矩陣分解的推薦方法
    11.4.1  LFM法
    11.4.2  SVD法
    11.4.3  SVD++法
第12章  集成學習
  12.1  集成學習的原理及誤差
  12.2  集成學習方法
    12.2.1  Boosting演算法
    12.2.2  AdaBoost演算法
    12.2.3  AdaBoost與加法模型
    12.2.4  提升樹
    12.2.5  Bagging演算法
    12.2.6  誤差-分歧分解
    12.2.7  多樣性增強
    12.2.8  Stacking演算法
  12.3  Python實現
第13章  數據預處理
  13.1  數據預處理概述
    13.1.1  為什麼要對數據進行預處理
    13.1.2  數據預處理的主要任務
  13.2  去除唯一屬性
  13.3  處理缺失值
    13.3.1  直接使用
    13.3.2  刪除特徵
    13.3.3  缺失值補全
    13.3.4  數據清理

    13.3.5  特徵編碼
    13.3.6  數據標準化
    13.3.7  正則化
    13.3.8  特徵選擇
    13.3.9  稀疏表示和字典學習
  13.4  Python實現
參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032