幫助中心 | 我的帳號 | 關於我們

深度學習自然語言處理實戰(雙色印刷)/數字化人才職場賦能系列叢書

  • 作者:編者:張楠//蘇南//王貴陽//梁培力//金紓羽|責編:尚晨//陳崇昱
  • 出版社:機械工業
  • ISBN:9787111660149
  • 出版日期:2020/08/01
  • 裝幀:平裝
  • 頁數:188
人民幣:RMB 59.9 元      售價:
放入購物車
加入收藏夾

內容大鋼
    近年來,基於深度學習方法的自然語言處理(NLP)已逐漸成為主流。本書共8章,主要介紹自然語言處理任務中的深度學習技術,包含深度學習理論基礎、深度學習的軟體框架、語言模型與詞向量、序列模型與梯度消失/爆炸、卷積神經網路在NLP領域的應用、Seq2Seq模型與Attention機制、大規模預訓練模型、預訓練語言模型BERT,還給出了自然語言處理技術的高級應用和開發實例,並收錄了基於PyTorch深度學習框架的部分實踐項目,本書每章均配有重要知識點串講視頻。
    本書既可作為人工智慧、電腦科學、電子信息工程、自動化等專業的本科生及研究生教材,也可作為自然語言處理相關領域的研究人員和技術人員的參考資料。

作者介紹
編者:張楠//蘇南//王貴陽//梁培力//金紓羽|責編:尚晨//陳崇昱

目錄
前言
第1章  深度學習理論基礎
  1.1  深度學習概況
    1.1.1  深度學習的歷史
    1.1.2  「無所不能」的深度學習
  1.2  深度學習神經網路
    1.2.1  神經網路
    1.2.2  隱藏層
    1.2.3  梯度下降
    1.2.4  激活函數
    1.2.5  權重初始化
    1.2.6  正則化
    1.2.7  歸一化
第2章  深度學習的軟體框架
  2.1  環境配置
    2.1.1  Anaconda
    2.1.2  英偉達GPU驅動+CUDA+cuDNN
    2.1.3  PyTorch安裝
    2.1.4  Python IDE選擇
  2.2  PyTorch 入門
    2.2.1  Tensor基本概念
    2.2.2  Tensor的運算
  2.3  PyTorch自動求梯度
    2.3.1  基本概念
    2.3.2  Tensor樣例
    2.3.3  梯度計算
  2.4  PyTorch nn模塊
第3章  語言模型與詞向量
  3.1  語言模型
    3.1.1  無處不在的語言模型
    3.1.2  神經網路語言模型
  3.2  詞向量
    3.2.1  one-hot
    3.2.2  word2vec
    3.2.3  GloVe
  3.3  代碼實戰
    3.3.1  任務1:應用PyTorch搭建Skip-Gram
    3.3.2  任務2:基於GloVe的大規模中文語料的詞向量訓練
第4章  序列模型與梯度消失/爆炸
  4.1  循環神經網路
    4.1.1  模型結構及計算過程
    4.1.2  應用PyTorch搭建並訓練RNN模型
  4.2  梯度消失與爆炸
    4.2.1  產生原因
    4.2.2  解決方法
  4.3  改進方法
    4.3.1  LSTM
    4.3.2  GRU
  4.4  代碼實戰:搭建LSTM/GRU的文本分類器
第5章  卷積神經網路在NLP領域的應用

  5.1  卷積神經網路的概念
    5.1.1  輸入層
    5.1.2  卷積層
    5.1.3  池化層
    5.1.4  全連接層
  5.2  空洞卷積神經網路
    5.2.1  空洞卷積的基本定義
    5.2.2  空洞卷積在NLP中的應用
    5.2.3  空洞卷積相關代碼
    5.2.4  多層卷積
  5.3  代碼實戰:CNN情感分類實戰
    5.3.1  數據處理
    5.3.2  程序主幹部分
    5.3.3  模型部分
    5.3.4  模型訓練與評估
第6章  Seq2Seq模型與Attention機制
  6.1  Encoder-Decoder結構
    6.1.1  Encoder
    6.1.2  Decoder
    6.1.3  Encoder-Decoder存在的問題
  6.2  Attention機制
  6.3  Seq2Seq訓練與預測
    6.3.1  模型訓練
    6.3.2  模型預測
    6.3.3  BLEU模型評估法
  6.4  代碼實戰:應用PyTorch搭建機器翻譯模型
第7章  大規模預訓練模型
  7.1  ELMo
    7.1.1  模型結構
    7.1.2  模型效果
    7.1.3  ELMo的優點
    7.1.4  利用ELMo+CNN進行分類的示例
  7.2  Transformer
    7.2.1  Encoder端及Decoder端總覽
    7.2.2  Encoder端各個子模塊
    7.2.3  Decoder端各個子模塊
    7.2.4  其他模塊
    7.2.5  完整模型
第8章  預訓練語言模型BERT
  8.1  BERT的基本概念
  8.2  BERT的工作原理
    8.2.1  BERT的預訓練
    8.2.2  BERT模型結構
    8.2.3  BERT的微調
  8.3  BERT的可解釋性
  8.4  其他預訓練模型
    8.4.1  XLNet
    8.4.2  RoBERTa
    8.4.3  ALBERT
  8.5  代碼實戰:預訓練模型

參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032