幫助中心 | 我的帳號 | 關於我們

自然語言處理--基於深度學習的理論與案例(高等學校電腦專業系列教材)

  • 作者:編者:雷擎|責編:龍啟銘
  • 出版社:清華大學
  • ISBN:9787302657477
  • 出版日期:2024/03/01
  • 裝幀:平裝
  • 頁數:348
人民幣:RMB 69 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書主要介紹神經網路、深度學習和自然語言處理的基本原理、方法和應用,全書分為3部分,每部分涵蓋了不同的主題:第1部分(第1?3章)介紹神經網路和深度學習的基礎知識,包括人工神經網路的起源和發展,神經網路的表示方法、數學基礎理論和機器學習基礎,以及表徵學習的概念;第2部分(第4章和第5章)介紹自然語言處理和轉換器網路;第3部分(第6?10章)介紹自然語言處理的案例分析,包括文本分類任務、實體識別、文本生成和文本摘要的方法和技術、基於評審的問答系統等。
    本書是學習並實踐神經網路、深度學習和自然語言處理的實用指南,每章都給出了代碼示例和實際案例。幫助讀者理解和實踐所學的知識。本書採用漸進式講解,理論與實踐結合,強調自然語言處理,並且關注最新技術和趨勢,適合作為高等學校神經網路、深度學習和自然語言處理相關課程的教材,也是相關專業人員很好的參考用書。

作者介紹
編者:雷擎|責編:龍啟銘

目錄
第1部分  神經網路與深度學習
  第1章  人工神經網路
    1.1  起源和發展
    1.2  什麼是深度學習
    1.3  神經網路的表示
    1.4  數學基礎理論
      1.4.1  數據類型
      1.4.2  函數基礎
      1.4.3  線性代數
      1.4.4  梯度計算
      1.4.5  概率分佈
      1.4.6  代碼示例
    1.5  機器學習基礎
      1.5.1  什麼是分類
      1.5.2  一個簡單的分類器:樸素貝葉斯
      1.5.3  一個簡單的神經網路:邏輯回歸
      1.5.4  評估分類結果
    1.6  表徵學習
      1.6.1  主成分分析
      1.6.2  詞袋的表徵
  第2章  前饋神經網路
    2.1  單層感知器
    2.2  三層神經網路
    2.3  激活函數
      2.3.1  線性函數
      2.3.2  邏輯函數
    2.4  更新權重
      2.4.1  學習規則
      2.4.2  反向傳播
      2.4.3  梯度下降
    2.5  代碼示例
    2.6  修改和擴展
      2.6.1  預期泛化誤差
      2.6.2  正則化的思想
      2.6.3  調整超參數
      2.6.4  其他的問題
  第3章  深度學習網路
    3.1  深度的定義
    3.2  卷積神經網路
      3.2.1  什麼是卷積計算
      3.2.2  感受野與卷積層
      3.2.3  特徵圖和池化層
      3.2.4  一個卷積網路
      3.2.5  用於文本分類
    3.3  循環神經網路
      3.3.1  不等長序列
      3.3.2  循環連接的構成
      3.3.3  長短期記憶網路
      3.3.4  三種訓練方法
      3.3.5  一個簡單的實現

    3.4  深度分散式表徵
      3.4.1  自編碼器
      3.4.2  神經語言模型
第2部分  自然語言處理與轉換器網路
  第4章  自然語言處理
    4.1  歷史發展
    4.2  常見任務
      4.2.1  字元和語音識別
      4.2.2  形態分析
      4.2.3  句法分析
      4.2.4  辭彙語義
      4.2.5  關係語義
      4.2.6  話語
      4.2.7  高級任務
    4.3  未來趨勢
    4.4  認識轉換器
      4.4.1  編碼器到解碼器框架
      4.4.2  注意力機制
      4.4.3  遷移學習
      4.4.4  Hugging Face生態
      4.4.5  面對挑戰
  第5章  轉換器網路
    5.1  轉換器介紹
    5.2  理解編碼器
      5.2.1  輸入嵌入層
      5.2.2  位置編碼
      5.2.3  多頭自注意力層
      5.2.4  殘值連接與層歸一化
      5.2.5  前饋網路層
    5.3  理解解碼器
      5.3.1  掩碼多頭注意力層
      5.3.2  多頭注意力層
      5.3.3  線性層和Softmax層
      5.3.4  運行流程
    5.4  訓練轉換器
    5.5  轉換器家族
      5.5.1  編碼器分支
      5.5.2  解碼器分支
      5.5.3  編碼器到解碼器分支
    5.6  概括
第3部分  自然語言處理案例分析
  第6章  文本分類案例分析
    6.1  數據集
      6.1.1  查看數據
      6.1.2  轉換到數據框
      6.1.3  查看類別分佈
      6.1.4  查看推文長度
    6.2  從文本到標記
      6.2.1  字元標記化
      6.2.2  詞標記化

      6.2.3  子詞標記化
      6.2.4  整個數據集
    6.3  訓練分類器
      6.3.1  特徵提取器
      6.3.2  微調轉換器
  第7章  實體識別案例分析
    7.1  數據集
    7.2  多語言轉換器
    7.3  標記化管道
    7.4  模型類剖析
      7.4.1  模型體和頭
      7.4.2  創建自定義模型
      7.4.3  載入自定義模型
    7.5  標記文本
    7.6  績效衡量
    7.7  微調XLM
    7.8  錯誤分析
  第8章  文本生成案例分析
    8.1  生成連貫文本
    8.2  貪心搜索解碼
    8.3  集束搜索解碼
    8.4  抽樣方法
  第9章  文本摘要案例分析
    9.1  數據集
    9.2  文本摘要管道
      9.2.1  基線
      9.2.2  GPT-2
      9.2.3  T5
      9.2.4  BART
      9.2.5  PEGASUS
      9.2.6  比較不同
    9.3  衡量指標
      9.3.1  BLEU
      9.3.2  ROUGE
  第10章  問答系統案例分析
    10.1  基於評審的問答系統
      10.1.1  數據集
      10.1.2  從文本中提取答案
參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032