幫助中心 | 我的帳號 | 關於我們

高級機器學習演算法實戰

  • 作者:(印度)V.基肖爾·艾亞德瓦拉|責編:林楨|譯者:姜峰//龐登峰//張振華
  • 出版社:機械工業
  • ISBN:9787111711445
  • 出版日期:2022/10/01
  • 裝幀:平裝
  • 頁數:241
人民幣:RMB 99 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書在理解演算法如何工作和如何更好地調整模型之間架起一座橋樑。本書將幫助你掌握開發主要機器學習模型的技能,包括監督和無監督學習(其中包括線性/對率回歸)、決策樹、隨機森林、梯度提升機(GBM)、神經網路、k均值聚類、主成分分析和推薦系統。
    你將通過應用於文本挖掘的CNN、RNN和Word2vec接觸到最新的深度學習,並學習相關理論和案例研究,如情感分類、欺詐檢測、推薦系統和圖像識別等,以便獲得工業中使用的絕大多數機器學習演算法的最佳理論和實踐。除了學習演算法,你還將接觸到在所有主要雲服務提供商上運行的機器學習模型。
    本書適合從事AI行業的工程師,以及希望從事數據科學工作的IT人員閱讀,並可以供數據科學家工作時參考使用。

作者介紹
(印度)V.基肖爾·艾亞德瓦拉|責編:林楨|譯者:姜峰//龐登峰//張振華
    V.基肖爾·艾亞德瓦拉(V Kishore Ayyadevara)對任何有關數據的東西都充滿熱情。十多年來,他一直致力於技術、數據和機器學習的交叉領域,以便能夠識別、溝通和解決業務問題。     他曾在美國運通(American Express)公司的風險管理部門和亞馬遜公司的供應鏈分析團隊中工作,目前正在領導一家初創公司的數據產品開發工作,負責實施各種分析解決方案並建立強大的數據科學團隊。     Kishore是一個積極的學習者,他的興趣包括識別可以使用數據解決的業務問題,簡化數據科學中的複雜性,以及跨領域轉移技術以實現可量化的業務結果。

目錄
譯者序
原書前言
作者簡介
技術評審員簡介
第1章  機器學習基礎
  1.1  回歸和分類
    1.1.1  訓練數據和測試數據
    1.1.2  對於驗證數據集的需求
    1.1.3  精度測量
    1.1.4  AUC值和ROC曲線
  1.2  無監督學習
  1.3  建立模型的典型方法
    1.3.1  數據從哪裡獲取
    1.3.2  需要獲取哪些數據
    1.3.3  數據預處理
    1.3.4  特徵交互
    1.3.5  特徵生成
    1.3.6  建立模型
    1.3.7  模型生產化
    1.3.8  構建、部署、測試和迭代
  1.4  總結
第2章  線性回歸
  2.1  線性回歸介紹
    2.1.1  變數:自變數和因變數
    2.1.2  相關性
    2.1.3  因果關係
  2.2  簡單線性回歸與多元線性回歸
  2.3  形式化簡單線性回歸
    2.3.1  偏差項
    2.3.2  斜率
  2.4  求解一個簡單線性回歸
  2.5  求解簡單線性回歸更通用的方法
    2.5.1  平方差總和小化
    2.5.2  求解公式
  2.6  簡單線性回歸的工作細節
    2.6.1  讓簡單線性回歸複雜化一點
    2.6.2  達到優係數值
    2.6.3  方均根誤差介紹
  2.7  在R中運行簡單線性回歸
    2.7.1  殘差
    2.7.2  係數
    2.7.3  殘差(殘餘偏差)的SSE
    2.7.4  零偏差
    2.7.5  R平方
    2.7.6  F統計量
  2.8  在Python中運行簡單線性回歸
  2.9  簡單線性回歸的常見缺陷
  2.10  多元線性回歸
    2.10.1  多元線性回歸的工作細節
    2.10.2  R中的多元線性回歸

    2.10.3  Python中的多元線性回歸
    2.10.4  模型中的非重要變數問題
    2.10.5  多重共線性問題
    2.10.6  多重共線性的數學直覺
    2.10.7  有關多元線性回歸的其他注意事項
  2.11  線性回歸的假設
  2.12  總結
第3章  對數幾率回歸
  3.1  為什麼線性回歸對離散結果無效
  3.2  一個更普遍的解決方案:Sigmoid曲線
    3.2.1  形式化Sigmoid曲線(Sigmoid激活)
    3.2.2  從Sigmoid曲線到對率回歸
    3.2.3  對率回歸的解釋
    3.2.4  對率回歸的工作細節
    3.2.5  估算誤差
    3.2.6  小二乘法與線性假設
  3.3  在R中運行對率回歸
  3.4  在Python中運行對率回歸
  3.5  確定興趣的度量
  3.6  常見陷阱
    3.6.1  預測和事件發生之間的時間
    3.6.2  自變數中的異常值
  3.7  總結
第4章  決策樹
  4.1  決策樹的構成部分
  4.2  存在多個離散自變數的分類決策樹
    4.2.1  信息增益
    4.2.2  計算不確定性:熵
    4.2.3  計算信息增益
    4.2.4  原始數據集中的不確定性
    4.2.5  衡量不確定性的改善
    4.2.6  哪些特定值進入左側或右側節點
    4.2.7  分裂過程何時停止
  4.3  連續自變數的分類決策樹
  4.4  有多個自變數時的分類決策樹
  4.5  存在連續自變數和離散自變數時的分類決策樹
  4.6  如果響應變數是連續的怎麼辦
    4.6.1  連續因變數與多個連續自變數
    4.6.2  連續因變數與離散自變數
    4.6.3  連續因變數與離散、連續自變數
  4.7  在R中實現決策樹
  4.8  在Python中實現決策樹
  4.9  創建樹的常見技術
  4.10  可視化樹的構建
  4.11  異常值對決策樹的影響
  4.12  總結
第5章  隨機森林
  5.1  一個隨機森林的場景
    5.1.1  Bagging
    5.1.2  隨機森林的工作細節

  5.2  在R中實現隨機森林
    5.2.1  隨機森林中的參數調整
    5.2.2  樹的深度對AUC的影響
  5.3  在Python中實現隨機森林
  5.4  總結
第6章  梯度提升機
  6.1  梯度提升機介紹
  6.2  GBM的工作細節
  6.3  收縮率
  6.4  AdaBoost
    6.4.1  AdaBoost理論
    6.4.2  AdaBoost的工作細節
  6.5  GBM的附加功能
  6.6  在Python中實現GBM
  6.7  在R中實現GBM
  6.8  總結
第7章  人工神經網路
  7.1  神經網路的結構
  7.2  訓練神經網路的工作細節
    7.2.1  前向傳播
    7.2.2  應用激活函數
    7.2.3  反向傳播
    7.2.4  計算反向傳播
    7.2.5  隨機梯度下降
    7.2.6  深入了解梯度下降
    7.2.7  為什麼要有學習率
  7.3  批量訓練
    7.3.1  Softmax的概念
  7.4  不同的損耗優化函數
    7.4.1  縮放數據集
  7.5  在Python中實現神經網路
  7.6  利用正則化避免過擬合
  7.7  將權重分配給正則化項
  7.8  在R中實現神經網路
  7.9  總結
第8章  Word2vec
  8.1  手工構建詞向量
  8.2  構建詞向量的方法
  8.3  Word2vec模型中需要注意的問題
    8.3.1  常用詞
    8.3.2  負採樣
  8.4  在Python中實現Word2vec
  8.5  總結
第9章  卷積神經網路
  9.1  傳統神經網路的問題
    9.1.1  場景
    9.1.2  場景
    9.1.3  場景
    9.1.4  場景
  9.2  了解CNN中的卷積

    9.2.1  從卷積到激活
    9.2.2  從卷積激活到池化
    9.2.3  卷積和池化有什麼幫助
  9.3  使用代碼創建CNN
  9.4  CNN的工作細節
  9.5  深入研究卷積/內核
  9.6  從卷積和池化到扁平化:完全連接層
    9.6.1  從一個完全連接層到另一個完全連接層
    9.6.2  從完全連接層到輸出層
  9.7  連接點:前饋網路
  9.8  CNN的其他細節
  9.9  CNN中的反向傳播
  9.10  將各層放在一起
  9.11  數據增強
  9.12  在R中實現CNN
  9.13  總結
第10章  遞歸神經網路
  10.1  理解架構
  10.2  RNN的解釋
  10.3  RNN的工作細節
    10.3.1  時間步驟
    10.3.2  時間步驟
    10.3.3  時間步驟
  10.4  實現RNN:SimpleRNN
    10.4.1  編譯模型
    10.4.2  驗證RNN的輸出
  10.5  實現RNN:生成文本
  10.6  RNN中的嵌入層
  10.7  傳統RNN的問題
    10.7.1  梯度消失問題
    10.7.2  梯度爆炸問題
  10.8  LSTM
  10.9  在keras中實現基本LSTM
  10.10  實現LSTM進行情感分類
  10.11  在R中實現RNN
  10.12  總結
第11章  聚類
  11.1  聚類介紹
    11.1.1  構建用於性能比較的商店簇
    11.1.2  理想聚類
    11.1.3  在沒有聚類和過多聚類之間取得平衡:k均值聚類
  11.2  聚類過程
  11.3  k均值聚類演算法的工作細節
    11.3.1  k均值演算法在數據集上的應用
    11.3.2  k均值聚類演算法的性質
  11.4  在R中實現k均值聚類
  11.5  在Python中實現k均值聚類
  11.6  主要指標的意義
  11.7  確定優的k
  11.8  自上向下與自下向上的聚類

    11.8.1  層次聚類
    11.8.2  層次聚類的主要缺點
  11.9  k均值聚類的行業使用案例
  11.10  總結
第12章  主成分分析
  12.1  PCA的直觀理解
  12.2  PCA的工作細節
  12.3  在PCA中縮放數據
  12.4  將PCA擴展到多變數
  12.5  在R中實現PCA
  12.6  在Python中實現PCA
  12.7  將PCA應用於MNIST
  12.8  總結
第13章  推薦系統
  13.1  了解k近鄰
  13.2  基於用戶的協同過濾的工作細節
    13.2.1  歐氏距離
    13.2.2  餘弦相似度
  13.3  基於項目的協同過濾
  13.4  在R中實現協同過濾
  13.5  在Python中實現協同過濾
  13.6  矩陣分解的工作細節
  13.7  在Python中實現矩陣分解
  13.8  在R中實現矩陣分解
  13.9  總結
第14章  在雲中實現演算法
  14.1  谷歌雲平台
  14.2  微軟Azure
  14.3  亞馬遜網路服務
  14.4  將文件傳輸到雲實例
  14.5  從本地電腦運行實例Jupyter Notebook
  14.6  在實例上安裝R
  14.7  總結
附錄  Excel、R和Python基礎
  A.1  Excel基礎
  A.2  R語言基礎
  A.3  Python基礎

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032