幫助中心 | 我的帳號 | 關於我們

深度學習進階(自然語言處理)/圖靈程序設計叢書

  • 作者:(日)齋藤康毅|責編:杜曉靜|譯者:陸宇傑
  • 出版社:人民郵電
  • ISBN:9787115547644
  • 出版日期:2020/10/01
  • 裝幀:平裝
  • 頁數:400
人民幣:RMB 99 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書是《深度學習入門:基於Python的理論與實現》的續作,圍繞自然語言處理和時序數據處理,介紹深度學習中的重要技術,包括word2vec、RNN、LSTM、GRU、seq2seq和Attention等。本書語言平實,結合大量示意圖和Python代碼,按照「提出問題」「思考解決問題的新方法」「加以改善」的流程,基於深度學習解決自然語言處理相關的各種問題,使讀者在此過程中更深入地理解深度學習中的重要技術。
    本書適合對自然語言處理感興趣的讀者閱讀。

作者介紹
(日)齋藤康毅|責編:杜曉靜|譯者:陸宇傑

目錄
譯者序
前言
第1章  神經網路的複習
  1.1  數學和Python的複習
    1.1.1  向量和矩陣
    1.1.2  矩陣的對應元素的運算
    1.1.3  廣播
    1.1.4  向量內積和矩陣乘積
    1.1.5  矩陣的形狀檢查
  1.2  神經網路的推理
    1.2.1  神經網路的推理的全貌圖
    1.2.2  層的類化及正向傳播的實現
  1.3  神經網路的學習
    1.3.1  損失函數
    1.3.2  導數和梯度
    1.3.3  鏈式法則
    1.3.4  計算圖
    1.3.5  梯度的推導和反向傳播的實現
    1.3.6  權重的更新
  1.4  使用神經網路解決問題
    1.4.1  螺旋狀數據集
    1.4.2  神經網路的實現
    1.4.3  學慣用的代碼
    1.4.4  Trainer類
  1.5  計算的高速化
    1.5.1  位精度
    1.5.2  GPU(CuPy)
  1.6  小結
第2章  自然語言和單詞的分散式表示
  2.1  什麼是自然語言處理
  2.2  同義詞詞典
    2.2.1  WordNet
    2.2.2  同義詞詞典的問題
  2.3  基於計數的方法
    2.3.1  基於Python的語料庫的預處理
    2.3.2  單詞的分散式表示
    2.3.3  分散式假設
    2.3.4  共現矩陣
    2.3.5  向量間的相似度
    2.3.6  相似單詞的排序
  2.4  基於計數的方法的改進
    2.4.1  點互信息
    2.4.2  降維
    2.4.3  基於SVD的降維
    2.4.4  PTB數據集
    2.4.5  基於PTB數據集的評價
  2.5  小結
第3章  word2vec
  3.1  基於推理的方法和神經網路
    3.1.1  基於計數的方法的問題

    3.1.2  基於推理的方法的概要
    3.1.3  神經網路中單詞的處理方法
  3.2  簡單的word2vec
    3.2.1  CBOW模型的推理
    3.2.2  CBOW模型的學習
    3.2.3  word2vec的權重和分散式表示
  3.3  學習數據的準備
    3.2.1  上下文和目標詞
    3.3.2  轉化為one-hot表示
  3.4  CBOW模型的實現
  3.5  word2vec的補充說明
    3.5.1  CBOW模型和概率
    3.5.2  skip-gram模型
    3.5.3  基於計數與基於推理
  3.6  小結
第4章  word2vec的高速化
  4.1  word2vec的改進①
    4.1.1  Embedding層
    4.1.2  Embedding層的實現
  4.2  word2vec的改進②
    4.2.1  中間層之後的計算問題
    4.2.2  從多分類到二分類
    4.2.3  Sigmoid函數和交叉熵誤差
    4.2.4  多分類到二分類的實現
    4.2.5  負採樣
    4.2.6  負採樣的採樣方法
    4.2.7  負採樣的實現
  4.3  改進版word2vec的學習
    4.3.1  CBOW模型的實現
    4.3.2  CBOW模型的學習代碼
    4.3.3  CBOW模型的評價
  4.4  wor2vec相關的其他話題
    4.4.1  word2vec的應用例
    4.4.2  單詞向量的評價方法
  4.5  小結
第5章  RNN
  5.1  概率和語言模型
    5.1.1  概率視角下的word2vec
    5.1.2  語言模型
    5.1.3  將CBOW模型用作語言模型?
  5.2  RNN
    5.2.1  循環的神經網路
    5.2.2  展開循環
    5.2.3  Backpropagation Through Time
    5.2.4  Truncated BPTT
    5.2.5  Truncated BPTT的mini-batch學習
  5.3  RNN的實現
    5.3.1  RNN層的實現
    5.3.2  Time RNN層的實現
  5.4  處理時序數據的層的實現

    5.4.1  RNNLM的全貌圖
    5.4.2  Time層的實現
  5.5  RNNLM的學習和評價
    5.5.1  RNNLM的實現
    5.5.2  語言模型的評價
    5.5.3  RNNLM的學習代碼
    5.5.4  RNNLM的Trainer類
  5.6  小結
第6章  Gated RNN
  6.1  RNN的問題
    6.1.1  RNN的複習
    6.1.2  梯度消失和梯度爆炸
    6.1.3  梯度消失和梯度爆炸的原因
    6.1.4  梯度爆炸的對策
  6.2  梯度消失和LSTM
    6.2.1  LSTM的介面
    6.2.2  LSTM層的結構
    6.2.3  輸出門
    6.2.4  遺忘門
    6.2.5  新的記憶單元
    6.2.6  輸入門
    6.2.7  LSTM的梯度的流動
  6.3  LSTM的實現
  6.4  使用LSTM的語言模型
  6.5  進一步改進RNNLM
    6.5.1  LSTM層的多層化
    6.5.2  基於Dropout抑制過擬合
    6.5.3  權重共享
    6.5.4  更好的RNNLM的實現
    6.5.5  前沿研究
  6.6  小結
第7章  基於RNN生成文本
  7.1  使用語言模型生成文本
    7.1.1  使用RNN生成文本的步驟
    7.1.2  文本生成的實現
    7.1.3  更好的文本生成
  7.2  seq2seq模型
    7.2.1  seq2seq的原理
    7.2.2  時序數據轉換的簡單嘗試
    7.2.3  可變長度的時序數據
    7.2.4  加法數據集
  7.3  seq2seq的實現
    7.3.1  Encoder類
    7.3.2  Decoder類
    7.3.3  Seq2seq類
    7.3.4  seq2seq的評價
  7.4  seq2seq的改進
    7.4.1  反轉輸入數據(Reverse)
    7.4.2  偷窺(Peeky)
  7.5  seq2seq的應用

    7.5.1  聊天機器人
    7.5.2  演算法學習
    7.5.3  自動圖像描述
  7.6  小結
第8章  Attention
  8.1  Attention的結構
    8.1.1  seq2seq存在的問題
    8.1.2  編碼器的改進
    8.1.3  解碼器的改進①
    8.1.4  解碼器的改進②
    8.1.5  解碼器的改進③
  8.2  帶Attention的seq2seq的實現
    8.2.1  編碼器的實現
    8.2.2  解碼器的實現
    8.2.3  seq2seq的實現
  8.3  Attention的評價
    8.3.1  日期格式轉換問題
    8.3.2  帶Attention的seq2seq的學習
    8.3.3  Attention的可視化
  8.4  關於Attention的其他話題
    8.4.1  雙向RNN
    8.4.2  Attention層的使用方法
    8.4.3  seq2seq的深層化和skip connection
  8.5  Attention的應用
    8.5.1  Google Neural Machine Translation(GNMT)
    8.5.2  Transformer
    8.5.3  Neural Turing Machine(NTM)
  8.6  小結
附錄A  sigmoid函數和tanh函數的導數
  A.1  sigmoid函數
  A.2  tanh函數
  A.3  小結
附錄B  運行WordNet
  B.1  NLTK的安裝
  B.2  使用WordNet獲得同義詞
  B.3  WordNet和單詞網路
  B.4  基於WordNet的語義相似度
附錄C  GRU
  C.1  GRU的介面
  C.2  GRU的計算圖
後記
參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032