幫助中心 | 我的帳號 | 關於我們

人工智慧和深度學習導論(國外著名高等院校信息科學與技術優秀教材)

  • 作者:(美)奧斯瓦爾德·坎佩薩托|責編:王峰松|譯者:劉少俊//方延風
  • 出版社:人民郵電
  • ISBN:9787115584083
  • 出版日期:2024/06/01
  • 裝幀:平裝
  • 頁數:182
人民幣:RMB 69.8 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書首先介紹了人工智慧的基礎知識,然後分別介紹了機器學習、深度學習、自然語言處理和強化學習中的重點概念和實踐過程,包含邏輯斯諦回歸、k最近鄰、決策樹、隨機森林、支持向量機、卷積神經網路、循環神經網路、LSTM、自動編碼器等。此外,本書的附錄部分還分別簡單介紹了Keras、TensorFlow、pandas等人工智慧相關的工具。
    本書適用於高等院校電子信息類專業的人工智慧導論課程,也適合想要對人工智慧、機器學習和深度學習快速了解和掌握的專業人士閱讀參考。

作者介紹
(美)奧斯瓦爾德·坎佩薩托|責編:王峰松|譯者:劉少俊//方延風

目錄
第1章  人工智慧導論
  1.1  什麼是人工智慧
  1.2  圖靈測試
    1.2.1  圖靈測試的定義
    1.2.2  詢問者測試
  1.3  啟髮式方法
  1.4  知識表示
    1.4.1  基於邏輯的解決方案
    1.4.2  語義網路
  1.5  人工智慧和博弈
  1.6  專家系統
  1.7  神經計算
  1.8  演化計算
  1.9  自然語言處理
  1.10  生物信息學
  1.11  人工智慧的主要部分
    1.11.1  機器學習
    1.11.2  深度學習
    1.11.3  強化學習
    1.11.4  機器人學
    1.11.5  自然語言處理
  1.12  代碼示例
  1.13  總結
第2章  機器學習概述
  2.1  什麼是機器學習
  2.2  機器學習演算法的類型
  2.3  特徵工程、特徵選擇和特徵提取
  2.4  降維
    2.4.1  PCA
    2.4.2  協方差矩陣
  2.5  使用數據集
    2.5.1  訓練數據與測試數據
    2.5.2  什麼是交叉驗證
  2.6  什麼是正則化
    2.6.1  機器學習和特徵縮放
    2.6.2  數據歸一化與標準化
  2.7  偏差-方差權衡
  2.8  模型的度量指標
    2.8.1  R2的局限性
    2.8.2  混淆矩陣
    2.8.3  準確率、精確率、召回率
    2.8.4  ROC曲線
  2.9  其他有用的統計學術語
    2.9.1  F1值是什麼
    2.9.2  p值是什麼
  2.10  什麼是線性回歸
    2.10.1  線性回歸與曲線擬合
    2.10.2  什麼時候解是精確值
    2.10.3  什麼是多元分析
  2.11  其他類型的回歸

  2.12  使用平面中的線(可選)
  2.13  用NumPy和matplotlib畫散點圖(1)
  2.14  用NumPy和matplotlib畫散點圖(2)
  2.15  用NumPy和matplotlib畫二次散點圖
  2.16  MSE公式
    2.16.1  誤差類型列表
    2.16.2  非線性最小二乘法
  2.17  手動計算MSE
  2.18  用np.linspace()API近似線性數據
  2.19  用np.linspace()API計算MSE
  2.20  用Keras進行線性回歸
  2.21  總結
第3章  機器學習分類器
  3.1  什麼是分類
    3.1.1  什麼是分類器
    3.1.2  常見的分類器
    3.1.3  二元分類與多類別分類
    3.1.4  多標籤分類
  3.2  什麼是線性分類器
  3.3  什麼是kNN
  3.4  什麼是決策樹
  3.5  什麼是隨機森林
  3.6  什麼是SVM
  3.7  什麼是貝葉斯推理
    3.7.1  貝葉斯定理
    3.7.2  一些貝葉斯術語
    3.7.3  什麼是最大后驗假設
    3.7.4  為什麼使用貝葉斯定理
  3.8  什麼是樸素貝葉斯分類器
  3.9  訓練分類器
  3.10  評估分類器
  3.11  什麼是激活函數
    3.11.1  為什麼需要激活函數
    3.11.2  激活函數是如何工作的
  3.12  常見的激活函數
    3.12.1  Python中的激活函數
    3.12.2  Keras中的激活函數
  3.13  ReLU和ELU激活函數
    3.13.1  ReLU激活函數
    3.13.2  ELU激活函數
  3.14  Sigmoid、Softmax、Softplus和tanh激活函數的相似性
    3.14.1  Sigmoid激活函數
    3.14.2  Softmax激活函數
    3.14.3  Softplus激活函數
    3.14.4  tanh激活函數
  3.15  Sigmoid、Softmax和Hardmax激活函數之間的差異
  3.16  什麼是邏輯斯諦回歸
    3.16.1  設置閾值
    3.16.2  邏輯斯諦回歸:重要假設
    3.16.3  線性可分數據

  3.17  Keras、邏輯斯諦回歸和Iris數據集
  3.18  總結
第4章  深度學習概述
  4.1  Keras和異或函數XOR
  4.2  什麼是深度學習
    4.2.1  什麼是超參數
    4.2.2  深度學習體系架構
    4.2.3  深度學習所能解決的問題
    4.2.4  未來的挑戰
  4.3  什麼是感知器
    4.3.1  感知器函數的定義
    4.3.2  感知器的詳細視圖
  4.4  人工神經網路剖析
    4.4.1  初始化模型的超參數
    4.4.2  激活函數
    4.4.3  損失函數
    4.4.4  優化器
    4.4.5  學習率
    4.4.6  丟棄率
  4.5  什麼是反向誤差傳播
  4.6  什麼是多層感知器
  4.7  數據點是如何被正確分類的
  4.8  CNN的高階視圖
    4.8.1  一個極簡的CNN
    4.8.2  卷積層
    4.8.3  ReLU激活函數
    4.8.4  最大池化層
  4.9  在MNIST數據集上顯示圖像
  4.10  Keras和MNIST數據集
  4.11  Keras、CNN和MNIST數據集
  4.12  用CNN分析音頻信號
  4.13  總結
第5章  深度學習體系架構:RNN和LSTM
  5.1  什麼是RNN
    5.1.1  RNN剖析
    5.1.2  什麼是BPTT
  5.2  在Keras中使用RNN
  5.3  在Keras中使用RNN和MNIST數據集
  5.4  在TensorFlow中使用RNN(可選)
  5.5  什麼是LSTM
    5.5.1  LSTM剖析
    5.5.2  雙向LSTM
    5.5.3  LSTM公式
    5.5.4  LSTM超參數調優
  5.6  在TensorFlow中使用LSTM(可選)
  5.7  什麼是GRU
  5.8  什麼是自動編碼器
    5.8.1  自動編碼器和主成分分析
    5.8.2  什麼是可變自動編碼器
  5.9  什麼是GAN

  5.10  創建GAN
  5.11  總結
第6章  自然語言處理和強化學習
  6.1  使用NLP
    6.1.1  NLP技術
    6.1.2  Transformer架構和NLP
    6.1.3  Transformer-XL架構
    6.1.4  Reformer架構
    6.1.5  NLP和深度學習
    6.1.6  NLP中的數據預處理任務
  6.2  流行的NLP演算法
    6.2.1  什麼是n-gram
    6.2.2  什麼是skip-gram
    6.2.3  什麼是詞袋
    6.2.4  什麼是詞頻
    6.2.5  什麼是反文檔頻率
    6.2.6  什麼是TF-IDF
  6.3  什麼是詞嵌入
  6.4  ELMo、ULMFit、OpenAI、BERT和ERNIE2
  6.5  什麼是Translatotron
  6.6  深度學習和NLP
  6.7  NLU與NLG
  6.8  什麼是強化學習
    6.8.1  強化學習的應用
    6.8.2  NLP與強化學習
    6.8.3  強化學習中的價值、策略和模型
  6.9  從NFA到MDP
    6.9.1  什麼是NFA
    6.9.2  什麼是馬爾可夫鏈
    6.9.3  馬爾可夫決策過程
  6.10  epsilon貪心演算法
  6.11  貝爾曼方程
  6.12  強化學習工具包和框架
  6.13  什麼是深度強化學習
  6.14  總結
附錄A  Keras簡介
  A.1  什麼是Keras
    A.1.1  在TF2中使用Keras命名空間
    A.1.2  使用tf.keras.layers命名空間
    A.1.3  使用tf.keras.activations命名空間
    A.1.4  使用tf.keras.datasets命名空間
    A.1.5  使用tf.keras.experimental命名空間
    A.1.6  使用tf.keras中的其他命名空間
    A.1.7  TF2Keras與「獨立」Keras
  A.2  創建基於Keras的模型
  A.3  Keras和線性回歸
  A.4  Keras、MLP和MNIST數據集
  A.5  Keras、CNN和cifar10數據集
  A.6  在Keras中調整圖像大小
  A.7  Keras和提前停止(1)

  A.8  Keras和提前停止(2)
  A.9  Keras模型的度量指標
  A.10  保存和恢復Keras模型
  A.11  總結
附錄B  TF2簡介
  B.1  什麼是TF
    B.1.1  TF2用例
    B.1.2  TF2架構
    B.1.3  TF2安裝
    B.1.4  TF2和Python的REPL
  B.2  其他基於TF2的工具包
  B.3  TF2即時執行
  B.4  TF2張量、數據類型和原始類型
    B.4.1  TF2數據類型
    B.4.2  TF2原始類型
  B.5  TF2中的常量
  B.6  TF2中的變數
  B.7  tf.rank()API
  B.8  tf.shape()API
  B.9  TF2中的變數(重新審視)
  B.10  TF2中的@tf.function是什麼
    B.10.1  @tf.function如何工作
    B.10.2  TF2中@tf.function的注意事項
    B.10.3  tf.print()函數和標準錯誤
  B.11  在TF2中使用@tf.function
    B.11.1  一個未使用@tf.function的例子
    B.11.2  一個使用@tf.function的例子
    B.11.3  使用@tf.function重載函數的例子
    B.11.4  TF2中的AutoGraph是什麼
  B.12  TF2中的算術運算
  B.13  TF2中算術運算的注意事項
  B.14  TF2的內置函數
  B.15  計算TF2中的三角函數值
  B.16  計算TF2中的指數值
  B.17  在TF2中使用字元串
  B.18  在TF2中使用帶有各種張量的運算符
  B.19  TF2中的二階張量(1)
  B.20  TF2中的二階張量(2)
  B.21  TF2中兩個二階張量的乘法
  B.22  將Python數組轉換為TF2張量
  B.23  微分和TF2中的tf.GradientTape
  B.24  tf.GradientTape的示例
    B.24.1  使用tf.GradientTape的watch()方法
    B.24.2  將嵌套的循環用於tf.GradientTape
    B.24.3  其他涉及tf.GradientTape的TF2張量運算
    B.24.4  持久的梯度磁帶
  B.25  谷歌Colaboratory
  B.26  其他雲平台
  B.27  總結
附錄C  pandas簡介

  C.1  什麼是pandas
    C.1.1  pandas數據幀
    C.1.2  數據幀和數據清洗任務
  C.2  帶標籤的pandas數據幀
  C.3  pandas數值數據幀
  C.4  pandas布爾數據幀
  C.5  pandas數據幀和隨機數
  C.6  組合pandas數據幀(1)
  C.7  組合pandas數據幀(2)
  C.8  pandas數據幀的數據處理(1)
  C.9  pandas數據幀的數據處理(2)
  C.10  pandas數據幀的數據處理(3)
  C.11  pandas數據幀和CSV文件
  C.12  pandas數據幀和Excel電子錶格(1)
  C.13  pandas數據幀和Excel電子錶格(2)
  C.14  讀取具有不同分隔符的數據文件
  C.15  使用sed命令轉換數據(可選)
  C.16  選擇、添加和刪除數據幀中的列
  C.17  pandas數據幀和散點圖
  C.18  pandas數據幀和直方圖
  C.19  pandas數據幀和簡單統計
  C.20  pandas數據幀的標準化
  C.21  pandas數據幀、NumPy函數和大型數據集
  C.22  使用pandas序列
    C.22.1  數據來自ndarray
    C.22.2  來自pandas序列的pandas數據幀
  C.23  pandas中有用的單行命令
  C.24  什麼是Jupyter
    C.24.1  Jupyter特性
    C.24.2  從命令行啟動Jupyter
    C.24.3  JupyterLab
    C.24.4  開發JupyterLab擴展
  C.25  總結

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032