幫助中心 | 我的帳號 | 關於我們

精通推薦演算法(核心模塊+經典模型+代碼詳解)

  • 作者:謝楊易|責編:張爽
  • 出版社:電子工業
  • ISBN:9787121474514
  • 出版日期:2024/03/01
  • 裝幀:平裝
  • 頁數:264
人民幣:RMB 89 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書系統介紹了推薦演算法的知識框架和技術細節,包括召回、粗排、精排和重排等模塊。第1章從用戶體驗、內容生產和平台發展角度介紹為什麼需要推薦系統,並闡述推薦系統的分類及整體技術架構。第2章介紹推薦演算法模型的基礎——數據樣本和特徵工程。第3章介紹傳統推薦演算法。第4?7章介紹推薦系統中最複雜的部分——精排模塊,包括特徵交叉、用戶行為序列建模、Embedding表徵學習和多任務學習。第8章介紹召回模塊,並詳細講解非個性化召回和個性化召回演算法。第9章介紹粗排模塊,重點講解特徵蒸餾和輕量級特徵交叉等方法。第10章介紹重排模塊,包括打散和多樣性、上下文感知和端上重排等技術細節。
    本書適用於推薦演算法初學者、有一定工作經驗的推薦演算法工程師,以及搜索、廣告和營銷等領域的從業者,也可作為高等院校電腦等相關專業師生的參考資料。

作者介紹
謝楊易|責編:張爽
    謝楊易,本科畢業於華中科技大學,碩士畢業於中國科學院大學。主要研究方向為推薦演算法、個性化搜索和自然語言處理,歷任阿里巴巴演算法專家、騰訊應用演算法研究員等職位,在搜索和推薦演算法領域積累了豐富的經驗。CSDN博客專家,原創文章100余篇。發表專利15個,已授權6個。

目錄
第1章  推薦系統概述
  1.1  為什麼需要推薦系統
    1.1.1  推薦系統與用戶體驗
    1.1.2  推薦系統與內容生產
    1.1.3  推薦系統與平台發展
  1.2  推薦系統分類
    1.2.1  業務領域分類
    1.2.2  內容介質分類
    1.2.3  交互形態分類
    1.2.4  應用場景分類
  1.3  推薦系統技術架構
  1.4  本章小結
第2章  數據樣本和特徵工程
  2.1  數據樣本
    2.1.1  樣本不均衡問題
    2.1.2  樣本不置信問題
    2.1.3  離/在線樣本不一致問題
  2.2  特徵工程
    2.2.1  特徵類目體系
    2.2.2  特徵處理範式
    2.2.3  特徵重要性評估
  2.3  本章小結
第3章  傳統推薦演算法
  3.1  協同過濾
    3.1.1  基於用戶的協同過濾
    3.1.2  基於物品的協同過濾
    3.1.3  協同過濾的優點和局限性
  3.2  矩陣分解
    3.2.1  矩陣分解實現方法
    3.2.2  矩陣分解的優點和局限性
  3.3  邏輯回歸
    3.3.1  邏輯回歸求解過程
    3.3.2  邏輯回歸的優點和局限性
  3.4  因子分解機
    3.4.1  因子分解機模型簡化
    3.4.2  因子分解機的優點和局限性
  3.5  組合模型
    3.5.1  GBDT+LR組合模型結構
    3.5.2  GBDT特徵轉換過程
    3.5.3  組合模型的思考和總結
  3.6  本章小結
第4章  特徵交叉
  4.1  特徵交叉概述
    4.1.1  特徵交叉的意義
    4.1.2  特徵交叉基本範式
    4.1.3  特徵交叉的難點
  4.2  Deep Crossing:經典DNN框架模型
    4.2.1  業務背景和特徵體系
    4.2.2  模型結構
    4.2.3  實現方法

  4.3  FNN
    4.3.1  為什麼Embedding收斂慢
    4.3.2  模型結構
  4.4  PNN
    4.4.1  模型結構
    4.4.2  特徵交叉實現方法
  4.5  Wide&Deep:異構模型奠基者
    4.5.1  「記憶」和「泛化」
    4.5.2  模型結構
    4.5.3  系統實現
    4.5.4  代碼解析
  4.6  DeepFM:異構模型Wide側引入FM
    4.6.1  模型結構
    4.6.2  代碼解析
  4.7  DCN:異構模型Wide側引入高階交叉
  4.8  NFM:異構模型Deep側引入顯式交叉
  4.9  xDeepFM:異構模型引入子分支
  4.10  本章小結
第5章  用戶行為序列建模
  5.1  用戶行為序列建模概述
    5.1.1  行為序列建模的意義
    5.1.2  行為序列建模的基本範式
    5.1.3  行為序列建模的主要難點
    5.1.4  行為序列特徵工程
  5.2  DIN:基於注意力機制建模用戶行為序列
    5.2.1  背景
    5.2.2  模型結構
    5.2.3  模型訓練方法
    5.2.4  代碼解析
  5.3  DIEN:GRU建模用戶行為序列
    5.3.1  模型結構:興趣抽取層
    5.3.2  模型結構:興趣進化層
  5.4  BST:Transformer建模用戶行為序列
    5.4.1  模型結構
    5.4.2  代碼解析
  5.5  DSIN:基於Session建模用戶行為序列
  5.6  MIMN:基於神經圖靈機建模長周期行為序列
    5.6.1  工程設計:UIC模塊
    5.6.2  MIMN模型結構
  5.7  SIM:基於檢索建模長周期行為序列
  5.8  ETA:基於SimHash實現檢索索引在線化
    5.8.1  ETA模型結構
    5.8.2  SimHash原理
  5.9  本章小結
第6章  Embedding表徵學習
  6.1  Embedding表徵學習概述
    6.1.1  Embedding概述
    6.1.2  Embedding表徵學習的意義
    6.1.3  Embedding表徵學習的基本範式
    6.1.4  Embedding表徵學習的主要難點

  6.2  基於序列的Embedding建模方法
    6.2.1  Word2vec任務定義:CBOW和Skip-gram
    6.2.2  Word2vec模型結構
    6.2.3  Word2vec訓練方法
    6.2.4  Item2vec:推薦系統引入序列Embedding
    6.2.5  序列建模總結和思考
  6.3  基於同構圖遊走的Graph Embedding
    6.3.1  DeepWalk:同構圖遊走演算法開山之作
    6.3.2  LINE:一階相似度和二階相似度探索
    6.3.3  Node2vec:同質性和結構等價性探索
    6.3.4  同構圖遊走的優缺點
  6.4  基於異構圖遊走的Graph Embedding
    6.4.1  Metapath2vec
    6.4.2  EGES
    6.4.3  異構圖遊走的優缺點
  6.5  圖神經網路
    6.5.1  GCN:圖神經網路開山之作
    6.5.2  GraphSAGE:圖神經網路工業應用的高潮
    6.5.3  圖神經網路總結
  6.6  向量檢索技術
    6.6.1  向量距離計算方法
    6.6.2  向量檢索演算法
    6.6.3  向量檢索常用工具:Faiss
  6.7  本章小結
第7章  多任務學習
  7.1  多任務學習發展歷程
    7.1.1  為什麼需要多任務學習
    7.1.2  多任務學習的基本框架
    7.1.3  多任務學習的難點和挑戰
  7.2  ESMM模型:解決SSB和DS問題的利器
    7.2.1  樣本選擇偏差和數據稀疏問題
    7.2.2  ESMM模型結構
    7.2.3  ESMM核心代碼
  7.3  MMOE模型:多專家多門控網路
    7.3.1  MMOE模型結構
    7.3.2  MMOE核心代碼
  7.4  PLE模型:解決負遷移和蹺蹺板現象的利器
    7.4.1  負遷移和蹺蹺板現象
    7.4.2  單層CGC模型結構
    7.4.3  PLE模型結構
    7.4.4  PLE核心代碼
  7.5  多任務融合
    7.5.1  網格搜索
    7.5.2  排序模型
    7.5.3  強化學習
  7.6  本章小結
第8章  召回演算法
  8.1  召回概述
    8.1.1  推薦底池
    8.1.2  多路召回

    8.1.3  召回的難點
    8.1.4  召回評價體系
  8.2  個性化召回
    8.2.1  基於內容的個性化召回
    8.2.2  基於協同過濾的個性化召回
    8.2.3  基於社交關係的個性化召回
  8.3  向量召回
    8.3.1  實現方法
    8.3.2  YouTube DNN
    8.3.3  Facebook EBR
    8.3.4  百度MOBIUS
  8.4  用戶行為序列類向量召回
    8.4.1  多峰興趣建模的意義
    8.4.2  MIND的模型結構
    8.4.3  膠囊網路
  8.5  樣本選擇偏差問題
    8.5.1  召回樣本構建方法
    8.5.2  ESAM和遷移學習
  8.6  召回檢索優化和TDM
    8.6.1  TDM在線檢索過程
    8.6.2  TDM索引構建和模型訓練過程
    8.6.3  JTM
    8.6.4  OTM
  8.7  本章小結
第9章  粗排演算法
  9.1  粗排概述
    9.1.1  粗排樣本和特徵
    9.1.2  粗排發展歷程
    9.1.3  粗排的難點
    9.1.4  粗排評價體系
  9.2  PFD模型:知識蒸餾學習交叉特徵
    9.2.1  PFD模型結構
    9.2.2  PFD模型原理
    9.2.3  PFD與傳統蒸餾相結合
    9.2.4  PFD在精排中的應用
  9.3  COLD模型:顯式特徵交叉
    9.3.1  雙塔內積模型
    9.3.2  COLD模型
  9.4  FSCD模型:效果和效率聯合優化
    9.4.1  FSCD特徵選擇原理
    9.4.2  FSCD訓練步驟
  9.5  本章小結
第10章  重排演算法
  10.1  重排概述
    10.1.1  為什麼需要重排
    10.1.2  重排的難點和挑戰
    10.1.3  流量調控
  10.2  打散和多樣性
    10.2.1  打散
    10.2.2  多樣性

    10.2.3  多樣性發展歷程
  10.3  上下文感知和PRM模型
    10.3.1  什麼是上下文感知
    10.3.2  PRM模型結構
    10.3.3  其他上下文感知實現方案
  10.4  實時性和延遲反饋問題
    10.4.1  推薦系統實時性的意義
    10.4.2  推薦系統實時性分類
    10.4.3  延遲反饋問題
    10.4.4  延遲反饋優化方案
  10.5  端上重排和EdgeRec
    10.5.1  為什麼需要端上模型
    10.5.2  端上推理引擎
    10.5.3  EdgeRec系統架構
    10.5.4  EdgeRec模型結構
  10.6  本章小結

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032