幫助中心 | 我的帳號 | 關於我們

TensorFlow自然語言處理及應用/人工智慧科學與技術叢書

  • 作者:編者:李炳銀|責編:李錦
  • 出版社:清華大學
  • ISBN:9787302673743
  • 出版日期:2024/10/01
  • 裝幀:平裝
  • 頁數:280
人民幣:RMB 69 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書以TensorFlow為平台,講述TensorFlow與自然語言的技術及開發。書中每章都以理論開始,以TensorFlow應用及自然語言分析結束,將理論與實踐相結合,讓讀者可以快速掌握TensorFlow與自然語言分析。本書共9章,主要內容為TensorFlow與編程、自然語言處理與深度學習基礎、神經網路演算法基礎、詞嵌入、卷積神經網路分析與文本分類、幾種經典的卷積神經網路、循環神經網路及語言模型、長短期記憶及自動生成文本、其他網路的經典分析與應用。
    本書注重應用,實例豐富,可作為高等院校人工智慧相關專業的教材,也可作為研究TensorFlow與自然語言分析的廣大科研人員、學者、工程技術人員的參考書籍。

作者介紹
編者:李炳銀|責編:李錦

目錄
第1章  TensorFlow與編程
  1.1  語言與系統的支持
  1.2  TensFlow的特點
  1.3  TensorFlow的環境搭建
    1.3.1  安裝環境介紹
    1.3.2  安裝TensorFlow
    1.3.3  安裝測試
  1.4  張量
    1.4.1  張量的概念
    1.4.2  張量的使用
    1.4.3  NumPy庫
    1.4.4  張量的階
    1.4.5  張量的形狀
  1.5  認識變數
    1.5.1  變數的創建
    1.5.2  變數的初始化
  1.6  矩陣的操作
    1.6.1  矩陣的生成
    1.6.2  矩陣的變換
  1.7  圖的實現
  1.8  會話的實現
  1.9  讀取數據方式
    1.9.1  列表格式
    1.9.2  讀取圖像數據
第2章  自然語言處理與深度學習基礎
  2.1  自然語言概述
    2.1.1  自然語言處理面臨的困難
    2.1.2  自然語言處理的發展趨勢
    2.1.3  自然語言處理的特點
  2.2  NLP技術前沿與未來趨勢
    2.2.1  挑戰與突破
    2.2.2  人機交互的未來
    2.2.3  未來發展趨勢與展望
    2.2.4  技術挑戰與解決路徑
  2.3  深度學習
    2.3.1  深度學習背景
    2.3.2  深度學習的核心思想
    2.3.3  深度學習的應用
  2.4  深度學習的優勢與劣勢
第3章  神經網路演算法基礎
  3.1  激活函數及實現
    3.1.1  激活函數的用途
    3.1.2  幾種激活函數
    3.1.3  幾種激活函數的繪圖
  3.2  門函數及實現
  3.3  單個神經元的擴展及實現
  3.4  構建多層神經網路
第4章  詞嵌入
  4.1  詞嵌入概述
  4.2  分散式表示

    4.2.1  分散式假設
    4.2.2  共現矩陣
    4.2.3  存在的問題
  4.3  jieba分詞處理
    4.3.1  jieba庫的三種模式和常用函數
    4.3.2  jieba庫分詞的其他操作
    4.3.3  中文詞頻統計實例
  4.4  離散表示
    4.4.1  one-hot編碼
    4.4.2  詞袋模型
    4.4.3  TF-IDF演算法
    4.4.4  n-gram模型
  4.5  word2vec模型
    4.5.1  word2vec模型介紹
    4.5.2  word2vec模型結構
    4.5.3  Skip-gram演算法
    4.5.4  CBOW演算法
    4.5.5  CBOW演算法與Skip-gram演算法的對比
    4.5.6  演算法改進
    4.5.7  訓練概率
    4.5.8  word2vec實現
第5章  卷積神經網路分析與文本分類
  5.1  全連接網路的局限性
  5.2  卷積神經網路的結構
    5.2.1  卷積層
    5.2.2  池化層
    5.2.3  全連接層
  5.3  卷積神經網路的訓練
    5.3.1  池化層反向傳播
    5.3.2  卷積層反向傳播
  5.4  卷積神經網路的實現
    5.4.1  識別0和1數字
    5.4.2  預測MNIST數字
  5.5  NLP的卷積
    5.5.1  NLP卷積概述
    5.5.2  用於文本分類的CNN
第6章  幾種經典的卷積神經網路
  6.1  AlexNet
    6.1.1  AlexNet的結構
    6.1.2  AlexNet的亮點
    6.1.3  AlexNet的實現
  6.2  DeepID網路
  6.3  VGGNet
    6.3.1  VGGNet的特點
    6.3.2  VGGNet的結構
    6.3.3  VGGNet的實現
  6.4  Inception Net
    6.4.1  Inception Net的原理
    6.4.2  Inception Net的經典應用
  6.5  ResNet

    6.5.1  ResNet的結構
    6.5.2  ResNet的實現
第7章  循環神經網路及語言模型
  7.1  循環神經網路概述
    7.1.1  循環神經網路的原理
    7.1.2  循環神經網路的簡單應用
  7.2  損失函數
  7.3  梯度求解
    7.3.1  E3關於參數V的偏導數
    7.3.2  E3關於參數W的偏導數
    7.3.3  E3關於參數U的偏導數
    7.3.4  梯度消失問題
  7.4  循環神經網路的經典應用
    7.4.1  實現二進位數加法運算
    7.4.2  實現擬合回聲信號序列
    7.4.3  基於字元級循環神經網路的語言模型
    7.4.4  使用PyTorch實現基於字元級循環神經網路的語言模型
第8章  長短期記憶及自動生成文本
  8.1  長短期記憶網路
    8.1.1  LSTM核心思想
    8.1.2  LSTM詳解與實現
  8.2  窺視孔連接
  8.3  GRU網路對MNIST數據集分類
  8.4  雙向循環神經網路對MNIST數據集分類
  8.5  CTC實現端到端訓練的語音識別模型
  8.6  LSTM生成文本預測
    8.6.1  模型訓練
    8.6.2  預測文本
第9章  其他網路的經典分析與應用
  9.1  自編碼網路及實現
    9.1.1  自編碼網路的結構
    9.1.2  自編碼網路的代碼實現
  9.2  棧式自編碼器及實現
    9.2.1  棧式自編碼概述
    9.2.2  棧式自編碼訓練
    9.2.3  棧式自編碼實現MNIST手寫數字分類
    9.2.4  棧式自編碼器的應用場合與實現
  9.3  變分自編碼及實現
    9.3.1  變分自編碼原理
    9.3.2  變分自編碼模擬生成MNIST數據
  9.4  條件變分自編碼及實現
    9.4.1  條件變分自編碼概述
    9.4.2  條件變分自編碼網路生成MNIST數據
參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032