幫助中心 | 我的帳號 | 關於我們

深入淺出(工業機器學習演算法詳解與實戰)

  • 作者:張朝陽|責編:孫業//白文亭
  • 出版社:機械工業
  • ISBN:9787111640561
  • 出版日期:2020/01/01
  • 裝幀:平裝
  • 頁數:273
人民幣:RMB 69 元      售價:
放入購物車
加入收藏夾

內容大鋼
    實用性是本書的基本出發點,書中介紹了近年來在工業界被廣泛應用的機器學習演算法,這些演算法經受了時間的考驗,不但效果好而且使用方便。此外,本書也十分注重理論的深度和完整性,內容編排力求由淺入深、推理完整、前後連貫、自成體系,先講統計學、矩陣、優化方法這些基礎知識,再介紹線性模型、概率圖模型、文本向量化演算法、樹模型和深度學習。與大多數機器學習圖書不同,本書還介紹了演算法周邊的一些工程架構及實現原理,比如如何實時地收集訓練樣本和監控演算法指標、參數伺服器的架構設計、做A/B測試的注意事項等。
    本書理論體系完整,公式推導清晰,可作為機器學習初學者的自學用書。讀者無需深厚的專業知識,本科畢業的理工科學生都能看懂。另外由於本書與工業實踐結合得很緊密,所以也非常適合於從事演算法相關工作的工程技術人員閱讀。

作者介紹
張朝陽|責編:孫業//白文亭
    張朝陽,畢業於華中科技大學工業工程系,獲碩士學位。曾就職于58同城、位元組跳動,現任脈脈高級演算法研究員,從事過反作弊、推薦、搜索等業務的演算法研究和系統開發工作,擅長自然語言處理、點擊率預估和特徵工程。多年堅持寫,總能以淺顯易懂的文字將演算法原理講清楚,在園上吸引了眾多粉絲。

目錄
前言
第1章  概述
  1.1  機器學習基本流程
  1.2  業界常用演算法
  1.3  構建機器學習系統
第2章  統計學
  2.1  概率分佈
    2.1.1  期望與方差
    2.1.2  概率密度函數
    2.1.3  累積分佈函數
  2.2  極大似然估計與貝葉斯估計
    2.2.1  極大似然估計
    2.2.2  貝葉斯估計
    2.2.3  共軛先驗與滑的關係
  2.3  置信區間
    2.3.1  t分佈
    2.3.2  區間估計
    2.3.3  Wilson置信區間
  2.4  相關性
    2.4.1  數值變數的相關性
    2.4.2  分類變數的相關性
    2.4.3  順序變數的相關性
    2.4.4  分佈之間的距離
第3章  矩陣
  3.1  矩陣的物理意義
    3.1.1  矩陣是什麼
    3.1.2  矩陣的行列式
    3.1.3  矩陣的逆
    3.1.4  特徵值和特徵向量
  3.2  矩陣的數值穩定性
    3.2.1  矩陣數值穩定性的度量
    3.2.2  基於列主元的高斯{約當消元法
    3.2.3  嶺回歸
  3.3  矩陣分解
    3.3.1  特徵值分解與奇異值分解
    3.3.2  高維稀疏矩陣的特徵值分解
    3.3.3  基於矩陣分解的推薦演算法
  3.4  矩陣編程實踐
    3.4.1  numpy數組運算
    3.4.2  稀疏矩陣的壓縮方法
    3.4.3  用MapReduce實現矩陣乘法
第4章  優化方法
  4.1  無約束優化方法
    4.1.1  梯度下降法
    4.1.2  擬牛頓法
  4.2  帶約束優化方法
  4.3  在線學習方法
    4.3.1  梯度下降法
    4.3.2  FTRL演算法
  4.4  深度學習中的優化方法

    4.4.1  動量法
    4.4.2  AdaGrad
    4.4.3  RMSprop
    4.4.4  Adadelta
    4.4.5  Adam
  4.5  期望大化演算法
    4.5.1  Jensen不等式
    4.5.2  期望大化演算法分析
    4.5.3  高斯混合模型
第5章  線性模型
  5.1  廣義線性模型
    5.1.1  指數族分佈
    5.1.2  廣義線性模型的特例
  5.2  邏輯回歸模型
  5.3  分解機制模型
    5.3.1  特徵組合
    5.3.2  分解機制
    5.3.3  分解機制模型構造新特徵的思路
  5.4  基於域感知的分解機制模型
  5.5  演算法實驗對比
第6章  概率圖模型
  6.1  隱馬爾可夫模型
    6.1.1  模型介紹
    6.1.2  模型訓練
    6.1.3  模型預測
  6.2  條件場模型
    6.2.1  條件場模型及特徵函數
    6.2.2  向前變數和向後變數
    6.2.3  模型訓練
    6.2.4  模型預測
    6.2.5  條件場模型與隱馬爾可夫模型的對比
第7章  文本向量化
  7.1  詞向量
    7.1.1  word2vec
    7.1.2  fastText
    7.1.3  GloVe
    7.1.4  演算法實驗對比
  7.2  文檔向量
    7.2.1  Paragraph Vector
    7.2.2  LDA
第8章  樹模型
  8.1  決策樹
    8.1.1  分類樹
    8.1.2  回歸樹
    8.1.3  剪枝
  8.2  森林
  8.3  AdaBoost
  8.4  XGBoost
  8.5  LightGBM
    8.5.1  基於梯度的單邊採樣演算法

    8.5.2  互斥特徵捆綁
    8.5.3  Leaf-Wise生長策略
    8.5.4  DART
  8.6  演算法實驗對比
第9章  深度學習
  9.1  神經網路概述
    9.1.1  網路模型
    9.1.2  反向傳播
    9.1.3  損失函數
    9.1.4  過擬合問題
    9.1.5  梯度消失
    9.1.6  參數初始化
  9.2  卷積神經網路
    9.2.1  卷積
    9.2.2  池化
    9.2.3  N網路結構
    9.2.4  textN
  9.3  循環神經網路
    9.3.1  RNN通用架構
    9.3.2  RNN的學習問題
    9.3.3  門控循環單元
    9.3.4  LSTM
    9.3.5  seq2seq
  9.4  注意力機制
第10章  Keras編程
  10.1  快速上手
  10.2  Keras層
    10.2.1  Keras內置層
    10.2.2  自定義層
  10.3  調試技巧
    10.3.1  查看中間層的輸出
    10.3.2  回調函數
  10.4  N和 RNN的實現
第11章  推薦系統實戰
  11.1  問題建模
  11.2  數據預處理
    11.2.1  歸一化
    11.2.2  特徵哈希
  11.3  模型探索
    11.3.1  基於共現的模型
    11.3.2  圖模型
    11.3.3  DeepFM
    11.3.4  DCN
  11.4  推薦服務
    11.4.1  遠程過程調用簡介
    11.4.2  gRPC的使用
    11.4.3  服務發現與負載均衡
第12章  收集訓練數據
  12.1  日誌的設計
  12.2  日誌的傳輸

  12.3  日誌的合併
  12.4  樣本的存儲
第13章  分散式訓練
  13.1  參數伺服器
  13.2  基於PS的優化演算法
  13.3  在線學習
第14章  A/B測試
  14.1  實驗分組
  14.2  指標監控
    14.2.1  指標的計算
    14.2.2  指標的上報與存儲
    14.2.3  指標的展現與監控
  14.3  實驗結果分析

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032