幫助中心 | 我的帳號 | 關於我們

自然語言處理遷移學習實戰

  • 作者:(迦納)保羅·阿祖雷|責編:秦健|譯者:李想//朱仲書//張世武
  • 出版社:人民郵電
  • ISBN:9787115615718
  • 出版日期:2023/07/01
  • 裝幀:平裝
  • 頁數:207
人民幣:RMB 79.8 元      售價:
放入購物車
加入收藏夾

內容大鋼
    遷移學習作為機器學習和人工智慧領域的重要方法,在電腦視覺、自然語言處理(NLP)、語音識別等領域都得到廣泛應用。本書是遷移學習技術的實用入門圖書,能夠帶領讀者深入實踐自然語言處理模型。首先,本書回顧了機器學習中的關鍵概念,並介紹了機器學習的發展歷史,以及NLP遷移學習的進展;其次,深入探討了一些重要的NLP遷移學習方法—NLP淺層遷移學習和NLP深度遷移學習;最後,涵蓋NLP遷移學習領域中重要的子領域—以Transformer作為關鍵功能的深度遷移學習技術。讀者可以動手將現有的先進模型應用於現實世界的應用程序,包括垃圾電子郵件分類器、IMDb電影評論情感分類器、自動事實檢查器、問答系統和翻譯系統等。
    本書文字簡潔、論述精闢、層次清晰,既適合擁有NLP基礎的機器學習和數據科學相關的開發人員閱讀,也適合作為高等院校電腦及相關專業的學生參考用書。

作者介紹
(迦納)保羅·阿祖雷|責編:秦健|譯者:李想//朱仲書//張世武
    保羅·阿祖雷(Paul Azunre)擁有麻省理工學院電腦科學博士學位,曾擔任美國國防部高級研究計劃局(DARPA)的多個研究項目的主任研究員。由他創建的Algorine公司致力於推進AI/ML技術並讓這些技術產生重大社會影響。Paul還參與創建了Ghana NLP開源社區。該社區專註于NLP技術的應用,尤其是對迦納語和其他低資源語言進行遷移學習。

目錄
第一部分  導論
  第1章  遷移學習簡介
    1.1  NLP領域典型任務概述
    1.2  理解人工智慧背景下的NLP技術
      1.2.1  人工智慧
      1.2.2  機器學習
      1.2.3  自然語言處理
    1.3  NLP發展簡史
      1.3.1  NLP簡介
      1.3.2  遷移學習的進展
    1.4  電腦視覺中的遷移學習
      1.4.1  概述
      1.4.2  ImageNet預訓練模型
      1.4.3  ImageNet預訓練模型的微調
    1.5  NLP遷移學習成為一個令人興奮的研究課題的原因
    小結
  第2章  從頭開始:數據預處理
    2.1  垃圾電子郵件分類任務中示例數據的預處理
      2.1.1  載入並檢視Enron電子郵件語料庫
      2.1.2  載入並檢視欺詐電子郵件數據集
      2.1.3  將電子郵件文本轉換為數值
    2.2  電影評論情感分類任務中示例數據的預處理
    2.3  廣義線性模型
      2.3.1  邏輯斯諦回歸
      2.3.2  支持向量機
    小結
  第3章  從頭開始:基準測試和優化
    3.1  基於決策樹的模型
      3.1.1  隨機森林
      3.1.2  梯度提升機
    3.2  神經網路模型
      3.2.1  語言模型嵌入
      3.2.2  BERT模型簡介
    3.3  效果優化
      3.3.1  手動超參調優
      3.3.2  系統化超參調優
    小結
第二部分  基於循環神經網路的淺層遷移學習和深度遷移學習
  第4章  NLP淺層遷移學習
    4.1  基於預訓練詞嵌入的半監督學習
    4.2  基於高級表示的半監督學習
    4.3  多任務學習
      4.3.1  問題的提出以及淺層神經網路單任務基線
      4.3.2  雙任務實驗
    4.4  領域適配
    小結
  第5章  基於循環神經網路的深度遷移學習實驗的數據預處理
    5.1  表格分類數據的預處理
      5.1.1  獲取並檢視表格數據
      5.1.2  預處理表格數據

      5.1.3  對預處理數據進行數字編碼
    5.2  預處理示例數據的事實核查
      5.2.1  特殊問題考量
      5.2.2  載入並檢視事實核查數據
    小結
  第6章  基於循環神經網路的NLP深度遷移學習
    6.1  SIMOn
      6.1.1  通用神經網路結構概述
      6.1.2  表格數據建模
      6.1.3  SIMOn在表格數據分類中的應用
    6.2  ELMo
      6.2.1  ELMo雙向語言建模
      6.2.2  ELMo在虛假新聞檢測任務中的應用
    6.3  ULMFiT
      6.3.1  以語言模型為目標任務的微調
      6.3.2  以分類為目標任務的微調
    小結
第三部分  基於Transformer的深度遷移學習以及適配策略
  第7章  基於Transformer的深度遷移學習和GPT
    7.1  Transformer
      7.1.1  transformers庫簡介與注意力可視化
      7.1.2  自注意力
      7.1.3  殘差連接、編碼器-解碼器注意力和位置編碼
      7.1.4  預訓練的編碼器-解碼器在機器翻譯任務中的應用
    7.2  GPT
      7.2.1  模型結構概述
      7.2.2  Transformer pipeline及其在文本生成任務中的應用
      7.2.3  聊天機器人任務中的應用
    小結
  第8章  基於BERT和mBERT的NLP深度遷移學習
    8.1  BERT
      8.1.1  BERT模型結構
      8.1.2  在自動問答任務中的應用
      8.1.3  在空白填寫和後續句預測任務中的應用
    8.2  mBERT的跨語言學習
      8.2.1  JW300數據集概述
      8.2.2  用預訓練分詞器將mBERT遷移到Twi單語言數據
      8.2.3  根據Twi單語言數據從頭訓練mBERT模型和分詞器
    小結
  第9章  ULMFiT與知識蒸餾的適配策略
    9.1  逐步解凍和差別式微調
      9.1.1  預訓練語言模型微調
      9.1.2  以分類為目標任務的微調
    9.2  知識蒸餾
    小結
  第10章  ALBERT、適配器和多任務適配策略
    10.1  嵌入因子分解與跨層參數共享
    10.2  多任務微調
      10.2.1  GLUE數據集
      10.2.2  GLUE單任務微調

      10.2.3  序列化適配
    10.3  適配器
    小結
  第11章  總結
    11.1  關鍵概念概述
    11.2  其他新興研究趨勢
      11.2.1  RoBERTa
      11.2.2  GPT-
      11.2.3  XLNet
      11.2.4  BigBird
      11.2.5  Longformer
      11.2.6  Reformer
      11.2.7  T
      11.2.8  BART
      11.2.9  XLM
      11.2.10  TAPAS
    11.3  NLP遷移學習的發展方向
    11.4  倫理和環境因素
    11.5  最新進展
      11.5.1  Kaggle和Zindi比賽
      11.5.2  arXiv
      11.5.3  新聞與社交媒體
    11.6  寫在最後
附錄A  Kaggle入門
  A.1  通過Kaggle Kernel免費使用GPU
  A.2  競賽、討論區和博客
附錄B  深度學習的基礎工具簡介
  B.1  隨機梯度下降
  B.2  TensorFlow
  B.3  PyTorch
  B.4  Keras、fast.ai庫和Hugging Face的transformers庫

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032