幫助中心 | 我的帳號 | 關於我們

AI可解釋性(Python語言版)

  • 作者:(意)列奧尼達·詹法納//安東尼奧·迪·塞科|責編:王軍|譯者:郭濤
  • 出版社:清華大學
  • ISBN:9787302605690
  • 出版日期:2022/08/01
  • 裝幀:平裝
  • 頁數:228
人民幣:RMB 59.8 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書全面介紹了AI可解釋性的概念和可用技術,使機器學習系統更易於解釋。書中提出的方法可以應用於幾乎所有現有的機器學習模型:線性和邏輯回歸、深度學習神經網路、自然語言處理和圖像識別等等。
    隨著機器學習的發展,如今人們越來越多地使用人工智慧體來執行以前由人類處理的關鍵任務(醫療、法律和金融等等)。雖然智能體的設計原則已被理解,但目前的大多數深度學習模型對人類理解而言是「不透明的」。《AI可解釋性(Python語言版)》從理論和實踐的角度填補了這個新興主題文獻方面的空白,使讀者能夠快速地使用可解釋性AI的工具和代碼。

作者介紹
(意)列奧尼達·詹法納//安東尼奧·迪·塞科|責編:王軍|譯者:郭濤

目錄
第1章  前景
  1.1  AI可解釋性示例
    1.1.1  學習階段
    1.1.2  知識發現
    1.1.3  可靠性和魯棒性
    1.1.4  三個示例的啟示
  1.2  ML和XAI
    1.2.1  ML分類法
    1.2.2  常見誤解
  1.3  對AI可解釋性的需求
  1.4  可解釋性與可理解性:是否為表達相同事物的不同詞語
    1.4.1  從物質世界到人類
    1.4.2  相關性不是因果性
    1.4.3  那麼可理解性和可解釋性的區別是什麼
  1.5  使ML系統具備可解釋性
    1.5.1  XAI工作流程
    1.5.2  全局視覺
  1.6  我們真的需要ML模型的可解釋性嗎
  1.7  小結
  參考文獻
第2章  AI可解釋性:需求、機遇和挑戰
  2.1  人工介入
    2.1.1  半人馬座XAI系統
    2.1.2  從「人工介入」的角度評估XAI
  2.2  如何使ML模型具備可解釋性
    2.2.1  內在可解釋性
    2.2.2  事後可解釋性
    2.2.3  全局或局部可解釋性
  2.3  解釋的性質
  2.4  小結
  參考文獻
第3章  內在可解釋性模型
  3.1  損失函數
  3.2  線性回歸
  3.3  邏輯回歸
  3.4  決策樹
  3.5  K最近鄰演算法(KNN)
  3.6  小結
  參考文獻
第4章  XAI的模型不可知方法
  4.1  全局可解釋性:排序重要性與部分依賴圖
    4.1.1  根據排序重要性將特徵排序
    4.1.2  訓練集中的排序重要性
    4.1.3  部分依賴圖
    4.1.4  解釋的性質
  4.2  局部可解釋性:XAI與Shapley加法解釋
    4.2.1  Shapley值:一種博弈論方法
    4.2.2  SHAP的首次應用
    4.2.3  解釋的性質
  4.3  KernelSHAP

    4.3.1  Shapley公式
    4.3.2  如何計算Shapley值
    4.3.3  局部線性代理模型(LIME)
    4.3.4  KermelSHAP是一種特殊的LIME
  4.4  KernelSHAP與交互
    4.4.1  紐約計程車情境
    4.4.2  通過初步分析訓練模型
    4.4.3  用KernelShap使模型具備可解釋性
    4.4.4  特徵交互
  4.5  提升樹的更快速SHAP
    4.5.1  TreeShap的應用
    4.5.2  提供解釋
  4.6  對SHAP的樸素評價
  4.7  小結
  參考文獻
第5章  解釋深度學習模型
  5.1  不可知方法
    5.1.1  對抗性特徵
    5.1.2  增強方法
    5.1.3  將遮擋用作增強方法
    5.1.4  將遮擋用作不可知XAI方法
  5.2  神經網路(NN)
    5.2.1  神經網路結構
    5.2.2  為什麼神經網路是深層網路(與淺層網路相對)
    5.2.3  修正激活(和批量歸一化)
    5.2.4  顯著圖
  5.3  打開深度網路
    5.3.1  不同層解釋
    5.3.2  CAM(類激活圖,Class Activation Maps)和Grad-CAM
    5.3.3  DeepShap/DeepLift
  5.4  對顯著性方法的評判
    5.4.1  網路所見
    5.4.2  可解釋性逐層批量標準化
  5.5  無監督方法
    5.5.1  無監督降維
    5.5.2  卷積濾波器降維
    5.5.3  激活圖集:如何區分炒鍋與煎鍋
  5.6  小結
  參考文獻
第6章  用ML和XAI創造科學
  6.1  數據時代的科學方法
  6.2  因果關係階梯
  6.3  用ML和XAI發現物理概念
    6.3.1  自動編碼器的魔力
    6.3.2  利用ML和XAI發現阻尼擺的物理特性
    6.3.3  攀登因果關係階梯
  6.4  ML和XAI時代的科學
  6.5  小結
  參考文獻
第7章  對抗性機器學習和可解釋性

  7.1  對抗性示例(AE)速成課程
  7.2  使用對抗性示例運行XAI
  7.3  用XAI抵禦對抗性攻擊
  7.4  小結
  參考文獻
第8章  關於XAI可持續模型的建議
  8.1  XAI 「Fil Rouge
  8.2  XAI和GDPR
  8.3  結語
  8.4  小結
  參考文獻
附錄  F.A.S.T.XAI認證

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032