幫助中心 | 我的帳號 | 關於我們

自然語言理解(高等學校電腦專業系列教材)

  • 作者:編者:趙海|責編:龍啟銘//戰曉雷
  • 出版社:清華大學
  • ISBN:9787302627784
  • 出版日期:2023/07/01
  • 裝幀:平裝
  • 頁數:368
人民幣:RMB 69 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書系統介紹自然語言處理(即自然語言理解)的經典和前沿技術內容,包括學科發展的簡要背景、基礎的建模方法和典型的語言處理任務。本書圍繞語言模型展開並貫穿其中,包括n元語言模型、連續空間語言模型(詞嵌入)以及前沿的預訓練語言模型。
    現代自然語言處理建立在機器學習的基礎之上。無論針對傳統機器學習還是針對現代深度學習,本書統一以結構化學習的脈絡展開,統一闡述典型的語言處理任務的普遍性機器學習建模方式,包括詞切分、序列標注以及樹結構解析。同時,本書以一種統一的觀點梳理機器學習和深度學習方法的要點,服務於自然語言處理任務的建模方法。最後,本書綜述了經典和前沿的語言處理任務:句法分析、語義分析、閱讀理解和大語言模型。以閱讀理解為代表的自然語言理解任務賦予傳統的學科自然語言理解新的內涵。
    本書適合作為高等學校相關專業高年級本科生和研究生的自然語言理解相關課程的教材,也可供自然語言理解研究人員閱讀參考。

作者介紹
編者:趙海|責編:龍啟銘//戰曉雷

目錄
第1章  自然語言處理概要
  1.1  自然語言處理的概念和術語
    1.1.1  自然語言
    1.1.2  自然語言處理與自然語言理解
    1.1.3  計算語言學
  1.2  自然語言處理的技術性挑戰
  1.3  機器翻譯
  1.4  語言處理層次
  1.5  應用型自然語言處理:人機對話系統
  1.6  自然語言處理的學術出版體系
  參考文獻
第2章  n元語言模型
  2.1  概率論基礎
  2.2  語言模型用於語言生成
  2.3  n元語言模型的工作方式及馬爾可夫假設
    2.3.1  n元機制
    2.3.2  馬爾可夫假設
  2.4  評價指標:困惑度
  2.5  n元語言模型的平滑方法
    2.5.1  Laplace平滑(加一平滑)
    2.5.2  Good-Turing平滑
    2.5.3  Jelinek-Mercer平滑
    2.5.4  Katz平滑
    2.5.5  Kneser-Ney平滑
    2.5.6  Pitman-Yor語言模型
  2.6  非n元機制的平滑方法
    2.6.1  緩存
    2.6.2  跳詞
    2.6.3  聚類
  2.7  平滑方法的經驗結果
  2.8  n元語言模型的建模工具
  參考文獻
第3章  語言編碼表示
  3.1  獨熱表示
  3.2  特徵函數
  3.3  通用特徵模板
  3.4  加權的獨熱表示:TF-IDF
  參考文獻
第4章  非監督的結構化學習
  4.1  自然語言處理的方法構成
  4.2  簡單任務:詞/子詞切分
  4.3  切分演算法
    4.3.1  通用切分框架
    4.3.2  全局優度最大化:Viterbi解碼演算法
    4.3.3  局部優度最大化:貪心解碼演算法
  4.4  優度度量
    4.4.1  頻率
    4.4.2  鄰接多樣性
    4.4.3  分支熵
    4.4.4  描述長度增益

    4.4.5  點互信息
    4.4.6  學生t測試
  4.5  非監督分詞
    4.5.1  數據集和評估指標
    4.5.2  詞典預處理技巧
    4.5.3  性能
  4.6  推廣的位元組對編碼切分演算法
  參考文獻
第5章  結構化學習
  5.1  機器學習的粒度和語言單元
  5.2  結構化學習的必要性
  5.3  自然語言處理中的結構化學習任務
  5.4  退化為分類任務
  5.5  結構分解
  5.6  共時結構分解:圖模型
  5.7  歷時結構分解:轉移模型
  5.8  兩類結構化分解方式的優劣
  5.9  結構化學習的簡化情形
  參考文獻
第6章  結構上的標注任務
  6.1  從結構標注到序列標注
  6.2  局部馬爾可夫模型
  6.3  全局馬爾可夫模型和條件隨機場
    6.3.1  全局馬爾可夫模型
    6.3.2  馬爾可夫隨機場
    6.3.3  條件隨機場
  6.4  隱馬爾可夫模型
    6.4.1  從馬爾可夫鏈到隱馬爾可夫模型
    6.4.2  隱馬爾可夫模型的基本計算任務:概率估計
    6.4.3  隱馬爾可夫模型的訓練:參數估計
    6.4.4  隱馬爾可夫模型的解碼:Viterbi演算法
  6.5  自然語言處理中的結構標注任務
    6.5.1  再標注的序列標注任務
    6.5.2  詞性標注任務的隱馬爾可夫模型實現示例
    6.5.3  推廣的分詞建模:不等單元的結構分解
  參考文獻
第7章  機器學習模型
  7.1  機器學習模型的要素配置
  7.2  損失函數
  7.3  k近鄰方法
  7.4  感知機
  7.5  鉸鏈損失與支持向量機
    7.5.1  最大化間隔
    7.5.2  懲罰項導出的軟邊界
    7.5.3  映射到高維空間
    7.5.4  核函數
    7.5.5  支持向量機的訓練演算法
    7.5.6  多類支持向量機
    7.5.7  支持向量機工具包
    7.5.8  支持向量機總結

  7.6  交叉熵損失與最大熵模型
    7.6.1  最大似然估計:對數-線性模型
    7.6.2  最大熵原理
    7.6.3  平滑
    7.6.4  最大熵模型的工具包
  7.7  從神經元學習到神經網路
  參考文獻
第8章  深度學習模型
  8.1  表示學習
  8.2  連續空間語言模型:詞嵌入或詞向量
    8.2.1  連續空間語言模型
    8.2.2  連續空間語言模型的機器學習解釋
    8.2.3  Word2Vec和GloVe詞嵌入
    8.2.4  評估詞向量
  8.3  神經網路的結構配置
    8.3.1  神經網路的拓撲連接方式
    3.3.2  激活函數
  8.4  深度學習模型的訓練
    8.4.1  訓練目標:輸出表示和損失函數
    8.4.2  誤差反向傳播演算法
    8.4.3  深度學習的訓練管理器
  8.5  編碼器-解碼器建模
  8.6  編碼器架構:循環神經網路
    8.6.1  循環神經網路的BPTT訓練演算法
    8.6.2  長短時記憶網路
  8.7  編碼器架構:卷積神經網路
    8.7.1  卷積
    8.7.2  池化
    8.7.3  卷積神經網路的結構
  8.8  編碼器架構:Transformer
    8.8.1  自注意力機制
    8.8.2  Transformer網路結構
  8.9  編碼器比較:RNN、CNN和Transformer
  8.10  序列生成的解碼過程
  8.11  符號主義對陣聯結主義
  8.12  深度學習工具包
  參考文獻
第9章  預訓練語言模型
  9.1  從表示學習到自監督學習
  9.2  從n元語言模型到預訓練語言模型
  9.3  輸入單元管理
  9.4  預訓練語言模型的自回歸解釋
  9.5  以編輯操作定義自監督學習
  9.6  採樣與預測目標的單元選擇
  9.7  編碼器架構
  9.8  預訓練語言模型方法的普適化
  9.9  預訓練語言模型的強化策略
    9.9.1  知識增強
    9.9.2  多模態預訓練語言模型
    9.9.3  模型優化

  9.10  典型的預訓練語言模型
  參考文獻
第10章  句法分析
  10.1  句法分析概要
  10.2  成分/短語句法分析
    10.2.1  喬姆斯基文法層次體系
    10.2.2  上下文無關文法
    10.2.3  概率上下文無關文法
  10.3  依存句法
    10.3.1  帶中心詞標注的成分句法
    10.3.2  依存結構
    10.3.3  成分/短語結構到依存結構的轉換
  10.4  句法標注語料:樹庫
  10.5  成分/短語句法分析演算法
    10.5.1  CYK演算法
    10.5.2  Earley演算法
  10.6  依存句法分析演算法
    10.6.1  基於圖模型的依存句法分析
    10.6.2  基於轉換模型的依存句法分析
    10.6.3  非投影型依存分析
  10.7  句法分析的深度學習方法改進
  10.8  依存分析的序列到序列建模
  10.9  從容易優先分析到全局貪心分析
  10.10  句法分析的經驗結果
  參考文獻
第11章  語義角色標注
  11.1  從語義分析到語義角色標注
  11.2  句法分析樹上的語義圖
  11.3  語義角色標注的規範和語料
  11.4  語義角色標注的建模方式
  11.5  句法特徵集成:傳統機器學習模型
  11.6  句法編碼器:深度學習模型
  11.7  句法裁剪
  11.8  統一建模成分和依存語義角色標注
  11.9  語義角色標注中的句法角色變遷
  11.10  語義角色標注的經驗結果
  參考文獻
第12章  機器閱讀理解
  12.1  機器閱讀理解任務的類型和評價指標
  12.2  機器閱讀理解的深度學習建模
    12.2.1  編碼器
    12.2.2  解碼器
  12.3  對話理解
  12.4  面向推理的閱讀理解
  12.5  常識問答
  12.6  開放域問答
  參考文獻
第13章  大語言模型及其前沿應用
  13.1  腦計劃與預訓練語言模型
  13.2  從預訓練語言模型到大語言模型

  13.3  從提示學習到思維鏈推理
  13.4  對話式大語言模型ChatGPT
  13.5  知識邊界
  參考文獻
後記

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032