幫助中心 | 我的帳號 | 關於我們

深度學習在自然語言處理中的應用(從詞表徵到ChatGPT)

  • 作者:張鐳|責編:王軍花
  • 出版社:人民郵電
  • ISBN:9787115613332
  • 出版日期:2023/05/01
  • 裝幀:平裝
  • 頁數:203
人民幣:RMB 79.8 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書針對當前火熱且應用前景廣闊的自然語言處理(NLP),介紹了深度學習的技術原理及其在自然語言處理中的應用;簡要分析了該領域各個應用方向上的相關模型和關鍵技術,包括Transformer、BERT、GPT,等等;彙集了眾多論文中的重要思想和研究成果;系統梳理了技術發展脈絡。此外,本書還介紹了如何使用深度學習技術來訓練模型,並分析了其在應用中的表現及優化手段,以幫助讀者更好地將理論應用於實踐。本書內容通俗易懂,可作為入門自然語言處理的參考書。
    本書適合對深度學習以及自然語言處理感興趣的人士閱讀。

作者介紹
張鐳|責編:王軍花
    張鐳,目前在Meta公司從事機器學習演算法研發。美國伊利諾伊大學芝加哥分校電腦科學博士,主要研究領域為自然語言處理、機器學習和數據挖掘。在國內外學術期刊和會議上已發表20多篇學術文章,獲得多項美國專利,合著有MiningText Data等4本關於文本數據挖掘和大數據計算的圖書,並長期受邀擔任自然語言處理國際期刊評委和國際會議程序委員會委員。

目錄
第1章  緒論
  1.1  機器學習簡介
    1.1.1  機器學習的發展歷程
    1.1.2  機器學習的演算法分類
  1.2  深度學習簡介
  1.3  自然語言處理簡介
    1.3.1  自然語言處理的發展歷程
    1.3.2  自然語言處理的研究方向
    1.3.3  自然語言理解的主要任務
    1.3.4  自然語言生成的任務
    1.3.5  自然語言處理面臨的挑戰
  1.4  自然語言處理與機器學習和深度學習
第2章  深度學習基礎
  2.1  前饋神經網路
  2.2  卷積神經網路
  2.3  循環神經網路
  2.4  長短期記憶網路
  2.5  記憶網路和神經圖靈機
  2.6  圖神經網路
  2.7  深度生成模型
    2.7.1  自編碼器和變分自編碼器
    2.7.2  生成對抗網路
  2.8  Transformer
    2.8.1  Transformer的編碼模塊
    2.8.2  Transformer的解碼模塊
第3章  詞表徵
  3.1  語言模型
  3.2  基於矩陣的詞分佈表徵模型
    3.2.1  潛在語義分析
    3.2.2  GloVe
  3.3  基於聚類的詞分佈表徵模型
  3.4  基於神經網路的詞分佈表徵模型
    3.4.1  NNLM
    3.4.2  RNNLM
    3.4.3  Collobert-Weston模型
    3.4.4  Word2Vec
    3.4.5  ELMo
    3.4.6  ULMFit
    3.4.7  GPT
    3.4.8  BERT
    3.4.9  T5
  3.5  跨語言的詞嵌入模型
    3.5.1  基於詞對齊
    3.5.2  基於預訓練的方法
  3.6  其他表徵
第4章  注意力機制
  4.1  注意力機制的由來
  4.2  注意力機制的擴展
    4.2.1  全局注意力和局部注意力
    4.2.2  自注意力

  4.3  NTM和MemNN的注意力機制
    4.3.1  NTM的注意力機制
    4.3.2  MemN2N的注意力機制
  4.4  指針網路的注意力機制
第5章  遷移學習
  5.1  遷移學習的定義和分類
  5.2  領域自適應
    5.2.1  基於樣本的遷移學習
    5.2.2  基於特徵映射的遷移學習
    5.2.3  基於對抗的深度遷移學習
  5.3  多任務學習
  5.4  序列遷移學習
    5.4.1  預訓練語言模型
    5.4.2  微調
  5.5  跨語言的遷移學習
第6章  強化學習
  6.1  強化學習的定義
    6.1.1  馬爾可夫決策過程
    6.1.2  強化學習的模型
    6.1.3  智能體的策略
    6.1.4  價值函數
  6.2  貝爾曼方程
  6.3  強化學習的分類
    6.3.1  有模型學習
    6.3.2  免模型學習
    6.3.3  基於值函數和基於策略函數的學習
  6.4  深度強化學習
  6.5  深度強化學習在NLP中的應用
第7章  機器翻譯
  7.1  機器翻譯的發展歷程
  7.2  神經機器翻譯
  7.3  基於RNN的Seq2Seq模型
  7.4  基於CNN的Seq2Seq模型
  7.5  神經機器翻譯的策略
    7.5.1  解碼策略
    7.5.2  估計softmax函數計算
    7.5.3  縮小詞典
    7.5.4  處理生僻詞和未知詞
  7.6  機器翻譯的評價方法
    7.6.1  人工評價
    7.6.2  下游系統評價
    7.6.3  BLEU
第8章  文本摘要
  8.1  抽取式摘要
    8.1.1  傳統機器學習方法
    8.1.2  深度學習方法
  8.2  生成式摘要
    8.2.1  傳統機器學習方法
    8.2.2  深度學習方法
  8.3  文本摘要的評價

第9章  自動問答
  9.1  基於檢索的自動問答
    9.1.1  文本檢索模塊
    9.1.2  文本理解模塊
  9.2  基於知識庫的自動問答
  9.3  基於社區的自動問答
    9.3.1  專家推薦
    9.3.2  相似問題檢索
    9.3.3  答案質量評估
  9.4  深度自動問答系統
    9.4.1  抽取式機器閱讀理解
    9.4.2  生成式機器閱讀理解
  9.5  自動問答系統的評價
第10章  對話系統
  10.1  面向任務的對話系統
    10.1.1  自然語言理解
    10.1.2  對話管理
    10.1.3  自然語言生成
  10.2  開放域對話系統
    10.2.1  檢索式方法
    10.2.2  生成式方法
    10.2.3  混合方法
    10.2.4  開放域對話系統的關鍵問題
  10.3  對話系統的評測
第11章  情感分析
  11.1  情感分析的分類
    11.1.1  文檔級情感分析
    11.1.2  句子級情感分析
    11.1.3  方面級情感分析
    11.1.4  監督學習和基於詞典的方法比較
  11.2  方面和實體提取
    11.2.1  挖掘頻繁出現的名詞短語
    11.2.2  利用情感詞與目標詞之間的語法關係
    11.2.3  應用監督學習模型
    11.2.4  使用主題模型
  11.3  情感詞典
    11.3.1  基於詞典的方法
    11.3.2  基於語料庫的方法
  11.4  多模態情感分析
第12章  ChatGPT
  12.1  大型語言模型
    12.1.1  語言模型的演化
    12.1.2  大型語言模型的最優訓練
    12.1.3  語境學習
    12.1.4  提示工程
  12.2  基於人工反饋的強化學習方法
  12.3  生成ChatGPT
    12.3.1  步驟1:微調GPT-3.5
    12.3.2  步驟2:訓練獎勵模型
    12.3.3  步驟3:利用強化學習微調ChatGPT

  12.4  ChatGPT的發展
參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032