幫助中心 | 我的帳號 | 關於我們

PaddlePaddle深度學習實踐(微課視頻版)/大數據與人工智慧技術叢書

  • 作者:盧睿//李林瑛|責編:鄭寅?//溫明潔
  • 出版社:清華大學
  • ISBN:9787302664499
  • 出版日期:2024/08/01
  • 裝幀:平裝
  • 頁數:233
人民幣:RMB 59.9 元      售價:
放入購物車
加入收藏夾

內容大鋼
    全書共8章,可分為三部分。第一部分為深度學習基礎篇,包括第1、2章,介紹Python基礎、數學基礎、深度學習的概念和任務;第二部分為深度學習基本模型篇,包括第3?5章,介紹卷積神經網路、循環神經網路和基於自注意力機制的Transformer模型;第三部分為自然語言應用篇,包括第6?8章,介紹詞向量、預訓練語言模型、詞法分析等自然語言處理領域的應用和實踐。書中各章相互獨立,讀者可根據自己的興趣和時間使用。書中每章都給出了相應的實踐內容,建議讀者在閱讀時,輔以代碼實踐,快速上手深度學習,加深對模型的理解。
    本書內容基礎、案例豐富,適合作為高等院校人工智慧及相關專業的教材,也可供研究人員和技術人員參考。

作者介紹
盧睿//李林瑛|責編:鄭寅?//溫明潔

目錄
第一部分  深度學習基礎
  第1章  Python與數學基礎
    1.1  Python簡介
    1.2  深度學習常用Python庫
      1.2.1  NumPy庫
      1.2.2  Matplotlib庫
    1.3  PaddlePaddle基礎
      1.3.1  張量的概念
      1.3.2  調整張量形狀
      1.3.3  索引和切片
      1.3.4  自動微分
      1.3.5  PaddlePaddle中的模型與層
    1.4  數學基礎
      1.4.1  線性代數
      1.4.2  微分基礎
    1.5  案例:《青春有你2》爬取與數據分析
      1.5.1  思路分析
      1.5.2  獲取網頁頁面
      1.5.3  解析頁面
      1.5.4  爬取選手百度百科圖片
      1.5.5  數據展示與分析
    1.6  本章小結
  第2章  深度學習基礎
    2.1  深度學習歷史
    2.2  深度學習
      2.2.1  人工智慧、機器學習、深度學習的關係
      2.2.2  機器學習
      2.2.3  深度學習
    2.3  模型構建
      2.3.1  線性神經元
      2.3.2  線性單層感知機
      2.3.3  非線性多層感知機
      2.3.4  模型實現
    2.4  損失函數
      2.4.1  均方差損失
      2.4.2  交叉熵
      2.4.3  損失函數的實現
      2.4.4  正則化
    2.5  參數學習
      2.5.1  梯度下降法
      2.5.2  梯度下降法實現
    2.6  飛槳框架高層API深入解析
      2.6.1  簡介
      2.6.2  方案設計
      2.6.3  數據集定義、載入和數據預處理
      2.6.4  模型組網
      2.6.5  模型訓練
      2.6.6  模型評估和模型預測
      2.6.7  模型部署
    2.7  案例:基於全連接神經網路的手寫數字識別

      2.7.1  方案設計
      2.7.2  數據處理
      2.7.3  模型構建
      2.7.4  模型配置和模型訓練
      2.7.5  模型驗證
      2.7.6  模型推理
    2.8  本章小結
第二部分  深度學習基本模型
  第3章  卷積神經網路
    3.1  圖像分類問題描述
    3.2  卷積神經網路
      3.2.1  卷積層
      3.2.2  池化層
      3.2.3  卷積優勢
      3.2.4  模型實現
    3.3  經典的卷積神經網路
      3.3.1  LeNet
      3.3.2  AlexNet
      3.3.3  VGG
      3.3.4  GoogLeNet
      3.3.5  ResNet
    3.4  案例:圖像分類網路VGG在中草藥識別任務中的應用
      3.4.1  方案設計
      3.4.2  整體流程
      3.4.3  數據處理
      3.4.4  模型構建
      3.4.5  訓練配置
      3.4.6  模型訓練
      3.4.7  模型評估和推理
    3.5  本章小結
  第4章  循環神經網路
    4.1  任務描述
    4.2  循環神經網路
      4.2.1  RNN和LSTM網路的設計思考
      4.2.2  RNN結構
      4.2.3  LSTM網路結構
      4.2.4  模型實現
    4.3  案例:基於THUCNews新聞標題的文本分類
      4.3.1  方案設計和整體流程
      4.3.2  數據預處理
      4.3.3  模型構建
      4.3.4  訓練配置、過程和模型保存
      4.3.5  模型推理
    4.4  本章小結
  第5章  注意力模型
    5.1  任務簡介
    5.2  注意力機制
      5.2.1  注意力機制原理
      5.2.2  自注意力機制
      5.2.3  Transformer模型

      5.2.4  模型實現
      5.2.5  自注意力模型與全連接、卷積、循環、圖神經網路的不同
    5.3  案例:基於seq2seq的對聯生成
      5.3.1  方案設計
      5.3.2  數據預處理
      5.3.3  模型構建
      5.3.4  訓練配置和訓練
      5.3.5  模型推理
    5.4  本章小結
第三部分  自然語言應用
  第6章  預訓練詞向量
    6.1  詞向量概述
    6.2  詞向量word2vec
      6.2.1  CBOW模型
      6.2.2  Skip-gram模型
      6.2.3  負採樣
    6.3  CBOW實現
      6.3.1  數據處理
      6.3.2  網路結構
      6.3.3  模型訓練
    6.4  案例:詞向量可視化與相似度計算
      6.4.1  詞向量可視化
      6.4.2  句子語義相似度
    6.5  本章小結
  第7章  預訓練語言模型及應用
    7.1  任務介紹
    7.2  BERT模型
      7.2.1  整體結構
      7.2.2  輸入表示
      7.2.3  基本預訓練任務
      7.2.4  預訓練語言模型的下游應用
      7.2.5  模型實現
    7.3  案例:BERT文本語義相似度計算
      7.3.1  方案設計
      7.3.2  數據預處理
      7.3.3  模型構建
      7.3.4  模型配置與模型訓練
      7.3.5  模型推理
    7.4  本章小結
  第8章  詞性分析技術及應用
    8.1  任務簡介
    8.2  基於BERT-BiLSTM-CRF模型的命名實體識別模型
      8.2.1  BERT詞表示層
      8.2.2  BiLSTM特徵提取層
      8.2.3  CRF序列標注層
    8.3  深入了解BiLSTM-CRF模型
      8.3.1  BiLSTM+CRF模型架構
      8.3.2  CRF模型定義
      8.3.3  標籤分數
      8.3.4  轉移分數

      8.3.5  解碼策略
      8.3.6  CRF模型實現
    8.4  案例:基於BERT+BiGRU+CRF模型的阿里中文地址要素解析
      8.4.1  方案設計
      8.4.2  數據預處理
      8.4.3  模型構建
      8.4.4  模型推理
    8.5  本章小結

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032