幫助中心 | 我的帳號 | 關於我們

自然語言處理中的貝葉斯分析(原書第2版)/智能科學與技術叢書

  • 作者:(以)謝伊·科恩|責編:柯敬賢|譯者:楊偉//袁科
  • 出版社:機械工業
  • ISBN:9787111669579
  • 出版日期:2021/01/01
  • 裝幀:平裝
  • 頁數:225
人民幣:RMB 89 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書對基於貝葉斯分析進行自然語言處理需掌握的概念、理論知識和演算法進行了深入淺出的介紹,講解了常見的推斷技術(馬爾可夫鏈蒙特卡羅採樣和變分推斷)、貝葉斯估計和非參數建模等。特別是為應對領域的快速發展,第2版新增了第9章「表徵學習與神經網路」。此外,還介紹貝葉斯統計中的基本概念,如先驗分佈、共軛和生成建模。最後,本書回顧自然語言處理中的一些基本建模技術(包括語法建模、神經網路和表徵學習)以及它們在貝葉斯分析中的應用。

作者介紹
(以)謝伊·科恩|責編:柯敬賢|譯者:楊偉//袁科
    謝伊·科恩(Shay Cohen),愛丁堡大學信息學院語言、認知和計算研究所的講師,他于2000年和2004年在特拉維夫大學分別取得數學和電腦科學學士學位與電腦科學碩士學位,並於2011年在卡內基一梅隆大學取得語言技術博士學位,在哥倫比亞大學(2011?2013)和愛丁堡大學(2013?2018)的博士后研究期間,分別獲得計算創新獎學金和大學校長獎學金。他的研究方向是自然語言處理和機器學習,重點研究結構化預測中的問題,比如句法和語義解析。

目錄
譯者序
第2版前言
第l版前言
第1版致謝
第1章  基礎知識
  1.1  概率測度
  1.2  隨機變數
    1.2.1  連續隨機變數和離散隨機變數
    1.2.2  多元隨機變數的聯合分佈
  1.3  條件分佈
    1.3.1  貝葉斯法則
    1.3.2  獨立隨機變數與條件獨立隨機變數
    1.3.3  可交換的隨機變數
  1.4  隨機變數的期望
  1.5  模型
    1.5.1  參數模型與非參數模型
    1.5.2  模型推斷
    1.5.3  生成模型
    1.5.4  .模型中的獨立性假定
    1.5.5  有向圖模型
  1.6  從數據場景中學習
  1.7  貝葉斯學派和頻率學派的哲學(冰山一角)
  1.8  本章小結
  1.9  習題
第2章  緒論
  2.1  貝葉斯統計與自然語言處理的結合點概述
  2.2  第一個例子:隱狄利克雷分配模型
    2.2.1  狄利克雷分佈
    2.2.2  推斷
    2.2.3  總結
  2.3  第二個例子:貝葉斯文本回歸
  2.4  本章小結
  2.5  習題
第3章  先驗
  3.1  共軛先驗
    3.1.1  共軛先驗和歸一化常數
    3.1.2  共軛先驗在隱變數模型中的應用
    3.1.3  混合共軛先驗
    3.1.4  重新歸一化共軛分佈
    3.1.5  是否共軛的討論
    3.1.6  總結
  3.2  多項式分佈和類別分佈的先驗
    3.2.1  再談狄利克雷分佈
    3.2.2  Logistic正態分佈
    3.2.3  討論
    3.2.4  總結
  3.3  非信息先驗
    3.3.1  均勻不正常先驗
    3.3.2  Jeffreys先驗
    3.3.3  討論

  3.4  .共軛指數模型
  3.5  模型中的多參數抽取
  3.6  結構先驗
  3.7  本章小結
  3.8  習題
第4章  貝葉斯估計
  4.1  隱變數學習:兩種觀點
  4.2  貝葉斯點估計
    4.2.1  最大后驗估計
    4.2.2  基於最大后驗解的后驗近似
    4.2.3  決策一理論點估計
    4.2.4  總結
  4.3  經驗貝葉斯
  4.4  后驗的漸近行為
  4.5  本章小結
  4.6  習題
第5章  採樣演算法
  5.1  MCMC演算法:概述
  5.2  MCMC推斷的自然語言處理模型結構
  5.3  吉布斯採樣
    5.3.1  坍塌吉布斯採樣
    5.3.2  運算符視圖
    5.3.3  並行化的吉布斯採樣器
    5.3.4  總結
  5.4  Metropolis—Hastjrags演算法
  5.5  切片採樣
    5.5.1  輔助變數採樣
    5.5.2  切片採樣和輔助變數採樣在自然語言處理中的應用
  5.6  模擬退火
  5.7  MCMC演算法的收斂性
  5.8  馬爾可夫鏈:基本理論
  5.9  MCMC領域外的採樣演算法
  5.10  蒙特卡羅積分
  5.11  討論
    5.11.1  分佈的可計算性與採樣
    5.11.2  嵌套的MCMC採樣
    5.11.3  MCMC方法的運行時間
    5.11.4  粒子濾波
  5.12  本章小結
  5.13  習題
第6章  變分推斷
  6.1  邊緣對數似然的變分界
  6.2  平均場近似
  6.3  平均場變分推斷演算法
    6.3.1  狄利克雷一多項式變分推斷
    6.3.2  與期望最大化演算法的聯繫
  6.4  基於變分推斷的經驗貝葉斯
  6.5  討論
    6.5.1  推斷演算法的初始化
    6.5.2  收斂性診斷

    6.5.3  變分推斷在解碼中的應用
    6.5.4  變分推斷最小化KL散度
    6.5.5  在線的變分推斷
  6.6  本章小結
  6.7  習題
第7章  非參數先驗
  7.1  狄利克雷過程:三種視角
    7.1.1  折棍子過程
    7.1.2  中餐館過程
  7.2  狄利克雷過程混合模型
    7.2.1  基於狄利克雷過程混合模型的推斷
    7.2.2  狄利克雷過程混合是混合模型的極限
  7.3  層次狄利克雷過程
  7.4  Pitman.Yor過程
    7.4.1  Pitman—Yor過程用於語言建模
    7.4.2  Pitman—Yor過程的冪律行為
  7.5  討論
    7.5.1  高斯過程
    7.5.2  印度自助餐過程
    7.5.3  嵌套的中餐館過程
    7.5.4  距離依賴的中餐館過程
    7.5.5  序列記憶器
  7.6  本章小結
  7.7  習題
第8章  貝葉斯語法模型
  8.1  貝葉斯隱馬爾可夫模型
  8.2  概率上下文無關語法
    8.2.1  作為多項式分佈集的PCFG
    8.2.2  PCFG的基本推斷演算法
    8.2.3  作為隱馬爾可夫模型的PCFG
  8.3  貝葉斯概率上下文無關語法
    8.3.1  PCFG的先驗
    8.3.2  貝葉斯PCFG的蒙特卡羅推斷
    8.3.3  貝葉斯PCFG的變分推斷
  8.4  適配器語法
    8.4.1  Pitman.Yor適配器語法
    8.4.2  PYAG的折棍子視角
    8.4.3  基於PYAG的推斷
  8.5  層次狄利克雷過程PCFG
  8.6  依存語法
  8.7  同步語法
  8.8  多語言學習
    8.8.1  詞性標注
    8.8.2  語法歸納
  8.9  延伸閱讀
  8.10  本章小結
  8.11  習題
第9章  表徵學習與神經網路
  9.1  神經網路與表徵學習:為什麼是現在
  9.2  詞嵌入

    9.2.1  詞嵌入的skip—gram模型
    9.2.2  貝葉斯skip—rgram詞嵌入
    9.2.3  討論
  9.3  神經網路
    9.3.1  頻率論估計和反向傳播演算法
    9.3.2  神經網路權值的先驗
  9.4  神經網路在自然語言處理中的現代應用
    9.4.1  循環神經網路和遞歸神經網路
    9.4.2  梯度消失與梯度爆炸問題
    9.4.3  神經編碼器—解碼器模型
    9.4.4  卷積神經網路
  9.5  調整神經網路
    9.5.1  正則化
    9.5.2  超參數調整
  9.6  神經網路生成建模
    9.6.1  變分自編碼器
    9.6.2  生成對抗網路
  9.7  本章小結
  9.8  習題
結束語
附錄A  基本概念
附錄B  概率分佈清單
參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032