幫助中心 | 我的帳號 | 關於我們

自然語言處理之BERT模型演算法架構和案例實戰

  • 作者:編者:陳之炎|責編:張丹
  • 出版社:中國鐵道
  • ISBN:9787113286255
  • 出版日期:2023/05/01
  • 裝幀:平裝
  • 頁數:224
人民幣:RMB 89.8 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書用簡單、通俗、易懂的語言對BERT相關的自然語言處理技術進行描述,從原理、架構、實現等多維度解讀BERT模型,並展示不同層面的實戰案例,通過將理論和實踐相結合,使讀者能夠在對模型充分理解的基礎上,運用模型解決實際任務。本書適合於自然語言處理初學者以及語言類大學的信息科學專業學生,不僅可作為拓展閱讀的材料,還可作為立志從事自然語言處理方向研究人員的入門參考書。

作者介紹
編者:陳之炎|責編:張丹

目錄
第一篇  自然語言處理基礎
  第1章  自然語言處理
    1.1  自然語言處理的起源
    1.2  自然語言處理的發展
    1.3  自然語言處理的應用領域
      1.3.1  機器翻譯
      1.3.2  智能問答
      1.3.3  文本信息檢索和提取
      1.3.4  情感分析
    1.4  自然語言處理領域的難點問題
      1.4.1  單詞的邊界界定
      1.4.2  詞義的消歧
      1.4.3  句法的模糊性
    本章小結
    思考題
  第2章  自然語言處理的預備知識
    2.1  數學知識
      2.1.1  線性代數
      2.1.2  微積分
      2.1.3  概率論
    2.2  電腦信息處理基礎知識
      自然語言處理之BERT模型演算法、架構和案例實戰
      2.2.1  字元的編碼和表示
      2.2.2  語言和演算法
      2.2.3  框架模型簡介
    2.3  基礎任務工具包
      2.3.1  基礎任務工具包簡介
      2.3.2  Python環境的搭建
      2.3.3  10個Python字元串處理技巧
    2.4  Python中常用到的自然語言處理庫
      2.4.1  NLTK
      2.4.2  TextBlob
      2.4.3  Spacy
      2.4.4  Gensim
      2.4.5  Stanford CoreNLP
    2.5  NLP的深度學習框架
      2.5.1  深度學習概述
      2.5.2  NLP的深度學習:ANN、RNN和LSTM
      2.5.3  利用PyTorch實現情感文本分類
    本章小結
    思考題
  第3章  文本的表示技術
    3.1  語言模型
      3.1.1  自然語言處理的n元模型
      3.1.2  自然語言處理的序列模型
    3.2  單詞的表示
      3.2.1  獨熱向量
      3.2.2  TF表示
      3.2.3  TF-IDF表示
      3.2.4  計算圖表示

    3.3  改進后的詞表徵
      3.3.1  詞嵌入
      3.3.2  word2vec模型
      3.3.3  Glo Ve
    3.4  句法分析
      3.4.1  句法分析的分類
      3.4.2  PCFG介紹
      3.4.3  CKY演算法
    本章小結
    思考題
第二篇  自然語言處理中的深度學習演算法
  第4章  自然語言處理與深度學習
    4.1  神經網路概述
      4.1.1  什麼是神經網路
      4.1.2  神經網路的架構
      4.1.3  訓練神經網路
      4.1.4  深度神經網路
    4.2  基於卷積神經網路CNN的自然語言處理模型
      4.2.1  CNN概述
      4.2.2  CNN架構
      4.2.3  CNN的優缺點
      4.2.4  CNN在自然語言處理領域的應用
    4.3  基於循環神經網路RNN的自然語言處理模型
      4.3.1  RNN概述
      4.3.2  RNN架構
      4.3.3  RNN的優缺點
      4.3.4  RNN在自然語言處理領域的應用
    4.4  基於LSTM網路的自然語言處理模型
      4.4.1  LSTM概述
      4.4.2  LSTM架構
      4.4.3  LSTM的優缺點
      4.4.4  LSTM在自然語言處理領域的應用
    4.5  基於BERT的自然語言處理模型
      4.5.1  BERT概述
      4.5.2  BERT的優缺點
    本章小結
    思考題
  第5章  BERT模型詳解
    5.1  Seq2Seq架構
      5.1.1  編碼器
      5.1.2  解碼器Decoder
    5.2  Attention機制
    5.3  Transformer模型
      5.3.1  Transformer的模型架構
      5.3.2  Self-attention自注意力機制
      5.3.3  位置編碼Positional Encoding
      5.3.4  Transformer模型的訓練
    5.4  BERT:深雙向Transformers預訓練語言理解模型
      5.4.1  概述
      5.4.2  BERT

      5.4.3  實驗
      5.4.4  深入研究
      5.4.5  BERT、ELMO和OpenAIGPT的比較
    5.5  BERT的變種
      5.5.1  ALBERT:語言表示自監督學習的LITE版本BERT
      5.5.2  RoBERTa優化后魯棒的BERT預訓練模型
      5.5.3  KG-BERT知識圖BERT
      5.5.4  MobileBERT:適用於資源受限設備的緊湊型與任務無關的BERT
    本章小結
    思考題
第三篇  實戰案例
  第6章  實戰案例一:利用BERT完成情感分析
    6.1  Huggin Face介紹
      6.1.1  Transformer編碼解碼結構背景和由來
      6.1.2  Transformers的組件和模型架構
      6.1.3  如何到Huggin Face倉庫下載模型
      6.1.4  如何使用模型進行訓練
    6.2  BERT調試環境的搭建
      6.2.1  Eclipse開發環境的安裝(WIN 10 64位系統)
      6.2.2  載入Python解釋器
      6.2.3  安裝TensorFlow框架
    6.3  BERT源碼詳解
    6.4  利用BERT實現情感分析任務實例
      6.4.1  任務概述
      6.4.2  數據集的讀取和處理
      6.4.3  訓練BERT中文情感分類任務
    本章小結
    思考題
  第7章  實戰案例二:利用BERT做NER任務
    7.1  採用BERT的無監督NER場景描述
    7.2  採用BERT的無監督NER原理
    7.3  執行無監督NER的步驟
    7.4  評價結果
    7.5  方法局限性和挑戰
    7.6  拓展
    7.7  補充說明
    本章小結
    思考題
第四篇  結語和展望
  第8章  自然語言處理領域熱門研究方向及結語
    8.1  自然語言處理領域熱門研究方向
      8.1.1  多模態學習
      8.1.2  依圖的ConvBert
      8.1.3  BERT與MySQL的結合
      8.1.4  圖神經網路
      8.1.5  特殊專業領域的應用

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032