幫助中心 | 我的帳號 | 關於我們

可解釋AI實戰(PyTorch版)

  • 作者:(英)阿傑伊·塔姆佩|責編:王軍|譯者:葉偉民//朱明超//劉華//葉孟良//袁敏
  • 出版社:清華大學
  • ISBN:9787302654865
  • 出版日期:2024/03/01
  • 裝幀:平裝
  • 頁數:269
人民幣:RMB 98 元      售價:
放入購物車
加入收藏夾

內容大鋼
    對於深度學習模型,常常很難解釋其工作方式,即使是創建這些模型的數據科學家也不例外。提高機器學習模型的透明度和可解釋性可以最大限度地減少錯誤,減少意想不到的偏見,增加用戶對結果的信任。本書講述了探索「黑盒」模型內部機制的技術,提供了設計可靠演算法的方法,並揭示了導致結果偏差的各種關鍵因素。
    本書將教會你識別模型所學習到的模式,並解釋為何會產生這樣的結果。通過閱讀本書,你將掌握一些用於解釋白盒模型(如線性回歸和廣義可加模型)的方法,以及一些用於解釋複雜深度學習模型的方法。可解釋AI是一個快速發展的領域,本書將該領域的前沿研究簡化為你可以在Python中實現的實際方法。

作者介紹
(英)阿傑伊·塔姆佩|責編:王軍|譯者:葉偉民//朱明超//劉華//葉孟良//袁敏

目錄
第Ⅰ部分  可解釋基礎知識
  第1章  導論
    1.1  Diagnostics+AI——AI系統示例
    1.2  機器學習系統的類型
      1.2.1  數據的表示
      1.2.2  監督學習
      1.2.3  無監督學習
      1.2.4  強化學習
      1.2.5  最適合Diagnosticst AI的機器學習系統
    1.3  構建Diagnostics+AI
    1.4  Diagnostics+的主要問題
      1.4.1  數據泄露
      1.4.2  偏見
      1.4.3  監管不合規
      1.4.4  概念漂移
    1.5  如何解決這些主要問題
    1.6  Interpretability與Explainability
    1.7  你將在本書學到什麼
      1.7.1  本書使用的工具
      1.7.2  閱讀本書所需的基礎知識
    1.8  本章小結
  第2章  白盒模型
    2.1  白盒模型概述
    2.2  Diagnostics+AI示例:預測糖尿病進展情況
    2.3  線性回歸
      2.3.1  解釋線性回歸
      2.3.2  線性回歸的局限性
    2.4  決策樹
      2.4.1  解釋決策樹
      2.4.2  決策樹的局限性
    2.5  廣義可加模型(GAM)
      2.5.1  回歸樣條
      2.5.2  GAM用於Diagnostics+AI預測糖尿病進展
      2.5.3  解釋GAM
      2.5.4  GAM的局限性
    2.6  展望黑盒模型
    2.7  本章小結
第Ⅱ部分  解釋模型處理
  第3章  全局與模型無關可解釋技術
    3.1  高中生成績預測器
    3.2  集成樹
    3.3  解釋隨機森林
    3.4  模型無關方法:全局可解釋
      3.4.1  部分依賴圖
      3.4.2  特徵的相互作用
    3.5  本章小結
  第4章  局部與模型無關可解釋技術
    4.1  Diagnostics+AI示例:乳腺癌診斷
    4.2  探索性數據分析
    4.3  深度神經網路

      4.3.1  數據準備
      4.3.2  訓練和評估DNN
    4.4  解釋DNN
    4.5  LIME
    4.6  SHAP
    4.7  錨定
    4.8  本章小結
  第5章  顯著圖
    5.1  Diagnostics+AI示例:浸潤性導管癌檢測
    5.2  探索性數據分析
    5.3  卷積神經網路
      5.3.1  數據準備
      5.3.2  訓練和評估CNN
    5.4  解釋CNN
      5.4.1  概率分佈圖
      5.4.2  LIME
      5.4.3  視覺歸因法
    5.5  標準反向傳播
    5.6  導向反向傳播
    5.7  其他基於梯度的方法
    5.8  Grad-CAM和導向Grad-CAM
    5.9  我應該使用哪種歸因法
    5.10  本章小結
第Ⅲ部分  解釋模型表示
  第6章  理解層和單元
    6.1  視覺理解
    6.2  國顧卷積神經網路
    6.3  神經網路剖析框架
      6.3.1  概念定義
      6.3.2  網路探測
      6.3.3  量化對齊
    6.4  解釋層和單元
      6.4.1  運行網路剖析
      6.4.2  概念檢測器
      6.4.3  訓練任務的概念檢測器
      6.4.4  可視化概念檢測器
      6.4.5  網路剖析的局限性
    6.5  本章小結
  第7章  理解語義相似性
    7.1  情感分析
    7.2  探索性數據分析
    7.3  神經網路詞嵌入
      7.3.1  獨熱編碼
      7.3.2  Word2Vec
      7.3.3  GloVe嵌入
      7.3.4  情感分析模型
    7.4  解釋語義相似性
      7.4.1  度量相似性
      7.4.2  主成分分析(PCA)
      7.4.3  t分佈隨機近鄰嵌入(t-SNE)

      7.4.4  驗證語義相似性的可視化
    7.5  本章小結
第Ⅳ部分  公平和偏見
  第8章  公平和減少偏見
    8.1  成年人收入預測
      8.1.1  探索性數據分析
      8.1.2  預測模型
    8.2  公平性概念
      8.2.1  人口平等
      8.2.2  機會和概率平等
      8.2.3  其他公平性概念
    8.3  可解釋和公平性
      8.3.1  源自輸入特徵的歧視
      8.3.2  源自表示的歧視
    8.4  減少偏見
      8.4.1  無意識公平
      8.4.2  通過重新加權糾正標注
    8.5  數據集的數據表
    8.6  本章小結
  第9章  XAI
    9.1  XAI概述
    9.2  反事實說明
    9.3  本章小結
附錄A  設置環境
  A.1  Python代碼
  A.2  Git代碼庫
  A.3  Conda環境
  A.4  Jupyter notebooks
  A.5  Docker
附錄B  PyTorch
  B.1  什麼是PyTorch
  B.2  安裝PyTorch
  B.3  張量
    B.3.1  數據類型
    B.3.2  CPU和GPU張量
    B.3.3  運算
  B.4  Dataset和DataLoader
  B.5  建模
    B.5.1  自動微分法
    B.5.2  模型定義
    B.5.3  訓練

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032