幫助中心 | 我的帳號 | 關於我們

自然語言處理(基於機器學習視角)/智能科學與技術叢書

  • 作者:張岳//滕志揚|責編:姚蕾|譯者:張梅山//黃丹丹//覃立波
  • 出版社:機械工業
  • ISBN:9787111742234
  • 出版日期:2024/03/01
  • 裝幀:平裝
  • 頁數:446
人民幣:RMB 139 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書從機器學習的角度系統地介紹自然語言處理領域,包括由統計模型到深度學習模型,由生成模型到判別模型,由監督模型到無監督模型等,對於每個主題都選擇了最具代表性的概念與演算法,使得閱讀及教學過程深入淺出、通俗易懂。本書的目標讀者為電腦科學、人工智慧或相關跨學科專業的高年級本科生及研究生,自然語言處理工程師也可將本書作為理論參考書籍,讀者需要具備一定的線性代數、微積分、概率論及演算法基礎。

作者介紹
張岳//滕志揚|責編:姚蕾|譯者:張梅山//黃丹丹//覃立波

目錄
中文版序
譯者序
前言
符號表
第一部分  基礎知識
  第1章  緒論
    1.1  自然語言處理的概念
    1.2  自然語言處理任務
      1.2.1  基礎任務
      1.2.2  信息抽取任務
      1.2.3  應用
      1.2.4  小結
    1.3  機器學習視角下的自然語言處理任務
    總結
    註釋
    習題
    參考文獻
  第2章  相對頻率
    2.1  概率建模
      2.1.1  最大似然估計
      2.1.2  詞概率建模
      2.1.3  模型與概率分佈
    2.2  n元語言模型
      2.2.1  一元語言模型
      2.2.2  二元語言模型
      2.2.3  三元及高階語言模型
      2.2.4  生成式模型
    2.3  樸素貝葉斯文本分類器
      2.3.1  樸素貝葉斯文本分類
      2.3.2  文本分類器的評估
      2.3.3  邊緣概率的計算
      2.3.4  特徵
    總結
    註釋
    習題
    參考文獻
  第3章  特徵向量
    3.1  文本在向量空間中的表示
      3.1.1  聚類
      3.1.2  k均值聚類
      3.1.3  分類
      3.1.4  支持向量機
      3.1.5  感知機
    3.2  多分類
      3.2.1  定義基於輸出的特徵
      3.2.2  多分類支持向量機
      3.2.3  多分類感知機
    3.3  線性判別式模型
      3.3.1  判別式模型及其特徵
      3.3.2  線性模型的點積形式

    3.4  向量空間與模型訓練
      3.4.1  可分性與泛化性
      3.4.2  處理非線性可分數據
    總結
    註釋
    習題
    參考文獻
  第4章  判別式線性分類器
    4.1  對數線性模型
      4.1.1  二分類對數線性模型的訓練
      4.1.2  多分類對數線性模型的訓練
      4.1.3  利用對數線性模型進行分類
    4.2  基於隨機梯度下降法訓練支持向量機
      4.2.1  二分類支持向量機的訓練
      4.2.2  多分類支持向量機的訓練
      4.2.3  感知機訓練的目標函數
    4.3  廣義線性模型
      4.3.1  統一在線訓練
      4.3.2  損失函數
      4.3.3  正則化
    4.4  模型融合
      4.4.1  模型性能比較
      4.4.2  模型集成
      4.4.3  半監督學習
    總結
    註釋
    習題
    參考文獻
  第5章  資訊理論觀點
    5.1  最大熵原理
      5.1.1  樸素最大熵模型
      5.1.2  條件熵
      5.1.3  最大熵模型與訓練數據
    5.2  KL散度與交叉熵
      5.2.1  交叉熵和最大似然估計
      5.2.2  模型困惑度
    5.3  互信息
      5.3.1  點互信息
      5.3.2  基於點互信息的文本挖掘
      5.3.3  基於點互信息的特徵選取
      5.3.4  詞的點互信息與向量表示
    總結
    註釋
    習題
    參考文獻
  第6章  隱變數
    6.1  期望最大演算法
      6.1.1  k均值演算法
      6.1.2  期望最大演算法介紹
    6.2  基於期望最大演算法的隱變數模型

      6.2.1  無監督樸素貝葉斯模型
      6.2.2  IBM模型1
      6.2.3  概率潛在語義分析
      6.2.4  生成模型的相對優勢
    6.3  期望最大演算法的理論基礎
      6.3.1  期望最大與KL散度
      6.3.2  基於數值優化的期望最大演算法推導
    總結
    註釋
    習題
    參考文獻
第二部分  結構研究
  第7章  生成式序列標注任務
    7.1  序列標注
    7.2  隱馬爾可夫模型
      7.2.1  隱馬爾可夫模型的訓練
      7.2.2  解碼
    7.3  計算邊緣概率
      7.3.1  前向演算法
      7.3.2  後向演算法
      7.3.3  前向-後向演算法
      7.3.4  二階隱馬爾可夫模型的前向-後向演算法
    7.4  基於期望最大演算法的無監督隱馬爾可夫模型訓練
    總結
    註釋
    習題
    參考文獻
  第8章  判別式序列標注任務
    8.1  局部訓練的判別式序列標注模型
    8.2  標注偏置問題
    8.3  條件隨機場
      8.3.1  全局特徵向量
      8.3.2  解碼
      8.3.3  邊緣概率計算
      8.3.4  訓練
    8.4  結構化感知機
    8.5  結構化支持向量機
    總結
    註釋
    習題
    參考文獻
  第9章  序列分割
    9.1  基於序列標注的序列分割任務
      9.1.1  面向分詞的序列標注特徵
      9.1.2  面向句法組塊分析的序列標注特徵
      9.1.3  面向命名實體識別的序列標注特徵
      9.1.4  序列分割輸出的評價方式
    9.2  面向序列分割的判別式模型
      9.2.1  分詞中的詞級別特徵
      9.2.2  基於動態規劃的精確搜索解碼

      9.2.3  半馬爾可夫條件隨機場
      9.2.4  最大間隔模型
    9.3  結構化感知機與柱搜索
      9.3.1  放寬特徵局部約束
      9.3.2  柱搜索解碼
    總結
    註釋
    習題
    參考文獻
  第10章  樹結構預測
    10.1  生成式成分句法分析
      10.1.1  概率上下文無關文法
      10.1.2  CKY解碼
      10.1.3  成分句法解析器的性能評估
      10.1.4  邊緣概率的計算
    10.2  成分句法分析的特徵
      10.2.1  辭彙化概率上下文無關文法
      10.2.2  判別式成分句法分析模型
      10.2.3  面向成分句法分析的對數線性模型
      10.2.4  面向成分句法分析的最大間隔模型
    10.3  重排序
    10.4  序列和樹結構總結及展望
    總結
    註釋
    習題
    參考文獻
  第11章  基於轉移的結構預測模型
    11.1  基於轉移的結構化預測
      11.1.1  貪心式局部模型
      11.1.2  結構化全局模型
    11.2  基於轉移的成分句法分析
      11.2.1  移進歸約成分句法分析
      11.2.2  特徵模板
    11.3  基於轉移的依存句法分析
      11.3.1  標準弧轉移依存句法分析
      11.3.2  依存句法解析器的評價方法
      11.3.3  貪心弧轉移依存句法分析
      11.3.4  基於SWAP動作的非投影樹解析
    11.4  句法分析聯合模型
      11.4.1  分詞、詞性標注與依存句法分析聯合模型
      11.4.2  討論
    總結
    註釋
    習題
    參考文獻
  第12章  貝葉斯網路
    12.1  通用概率模型
    12.2  貝葉斯網路的訓練
      12.2.1  最大似然估計
      12.2.2  最大后驗估計

      12.2.3  共軛先驗
      12.2.4  貝葉斯估計
      12.2.5  貝葉斯一元語言模型
    12.3  推理
      12.3.1  精確推理
      12.3.2  吉布斯採樣
    12.4  潛在狄利克雷分配
      12.4.1  帶有隱變數的訓練過程
      12.4.2  潛在狄利克雷分配模型的應用
      12.4.3  主題評價
    12.5  貝葉斯IBM模型1
    總結
    註釋
    習題
    參考文獻
第三部分  深度學習
  第13章  神經網路
    13.1  從單層網路到多層網路
      13.1.1  面向文本分類任務的多層感知機
      13.1.2  多層感知機的訓練
    13.2  構建不依賴人工特徵的文本分類器
      13.2.1  詞嵌入
      13.2.2  序列編碼層
      13.2.3  輸出層
      13.2.4  訓練
    13.3  神經網路的訓練優化
      13.3.1  Short-cut連接
      13.3.2  層標準化
      13.3.3  Dropout機制
      13.3.4  神經網路隨機梯度下降訓練演算法的優化
      13.3.5  超參數搜索
    總結
    註釋
    習題
    參考文獻
  第14章  表示學習
    14.1  循環神經網路
      14.1.1  樸素循環神經網路
      14.1.2  循環神經網路的訓練
      14.1.3  長短期記憶網路與門控循環單元
      14.1.4  堆疊式長短期記憶網路
    14.2  注意力機制
      14.2.1  鍵值對注意力
      14.2.2  自注意力網路
    14.3  樹結構
      14.3.1  Child-Sum樹形長短期記憶網路
      14.3.2  二叉樹長短期記憶網路
      14.3.3  特徵對比
    14.4  圖結構
      14.4.1  圖循環神經網路

      14.4.2  圖卷積神經網路
      14.4.3  圖注意力神經網路
      14.4.4  特徵聚合
    14.5  表示向量的分析
    14.6  神經網路的訓練
      14.6.1  AdaGrad演算法
      14.6.2  RMSProp演算法
      14.6.3  AdaDelta演算法
      14.6.4  Adam演算法
      14.6.5  優化演算法的選擇
    總結
    註釋
    習題
    參考文獻
  第15章  基於神經網路的結構預測模型
    15.1  基於圖的局部模型
      15.1.1  序列標注
      15.1.2  依存分析
      15.1.3  成分句法分析
      15.1.4  和線性模型的對比
    15.2  基於轉移的局部貪心模型
      15.2.1  模型1
      15.2.2  模型2
      15.2.3  模型3
    15.3  全局結構化模型
      15.3.1  基於神經網路的條件隨機場模型
      15.3.2  全局規範化的基於轉移的模型
    總結
    註釋
    習題
    參考文獻
  第16章  兩段式文本任務
    16.1  序列到序列模型
      16.1.1  模型1:基於長短期記憶網路
      16.1.2  模型2:基於注意力機制
      16.1.3  模型3:基於拷貝機制
      16.1.4  子詞模型
      16.1.5  基於多頭自注意力網路的序列到序列模型
    16.2  文本匹配模型
      16.2.1  文本匹配
      16.2.2  匹配查詢
      16.2.3  記憶網路
    總結
    註釋
    習題
    參考文獻
  第17章  預訓練與遷移學習
    17.1  神經網路語言模型與詞向量
      17.1.1  神經網路n元語言模型
      17.1.2  雜訊對比估計

      17.1.3  神經網路語言模型的優化
      17.1.4  分散式詞表示
      17.1.5  引入全局統計信息的詞向量(GloVe)
      17.1.6  詞向量評估
      17.1.7  詞向量與未知詞
      17.1.8  基於n元組字元的詞向量
    17.2  上下文相關的詞表示
      17.2.1  循環神經網路語言模型
      17.2.2  基於上下文的詞向量
      17.2.3  基於自注意力的上下文詞向量
      17.2.4  雙向自注意力網路語言模型
      17.2.5  上下文相關詞向量的使用
    17.3  遷移學習
      17.3.1  多任務學習
      17.3.2  共享參數的選擇
      17.3.3  共享-私有網路結構
    總結
    註釋
    習題
    參考文獻
  第18章  深度隱變數模型
    18.1  將隱變數引入神經網路
    18.2  使用類別隱變數
      18.2.1  SGD模型訓練
      18.2.2  文本聚類的詞袋模型
      18.2.3  考慮序列信息的文本聚類模型
    18.3  使用結構化隱變數
      18.3.1  引入結構化隱變數
      18.3.2  序列標注
      18.3.3  序列分割
      18.3.4  成分句法
    18.4  變分推理
      18.4.1  證據下界
      18.4.2  坐標上升變分推理
      18.4.3  隨機變分推理
      18.4.4  分攤變分推理
      18.4.5  變分自編碼器
      18.4.6  重參數化
    18.5  神經主題模型
      18.5.1  神經變分文檔模型
      18.5.2  神經主題模型介紹
    18.6  面向語言模型的變分自編碼器
      18.6.1  TextVAE
      18.6.2  變分序列到序列模型
    總結
    註釋
    習題
    參考文獻
索引

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032