幫助中心 | 我的帳號 | 關於我們

人工智慧安全(雙色印刷高等教育網路空間安全專業系列教材)

  • 作者:編者:李劍//呂昕晨//鄭家民|責編:郝建偉//解芳
  • 出版社:機械工業
  • ISBN:9787111785491
  • 出版日期:2025/07/01
  • 裝幀:平裝
  • 頁數:226
人民幣:RMB 59 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書是高等院校網路空間安全、人工智慧、電腦等專業的普及性教材,旨在幫助學生全面了解人工智慧安全知識並進行實踐。全書共11章,分別為:人工智慧安全概述、生成對抗網路攻擊與防護、數據投毒攻擊與防護、對抗樣本攻擊與防護、後門攻擊與防護、隱私攻擊與防護、預訓練攻擊與防護、偽造攻擊與防護、人工智慧模型的攻擊與防護、模型竊取與防護、大語言模型安全。
    本書提供各章對應的Python編程實踐源代碼,讀者可以通過提供的網盤下載鏈接獲取。

作者介紹
編者:李劍//呂昕晨//鄭家民|責編:郝建偉//解芳

目錄
前言
第1章  人工智慧安全概述
  1.1  人工智慧安全的引入
  1.2  人工智慧安全的概念
  1.3  人工智慧安全的架構、風險及應對方法
    1.3.1  人工智慧安全架構
    1.3.2  人工智慧安全風險
    1.3.3  人工智慧安全風險的應對方法
  1.4  人工智慧安全現狀與治理
  1.5  本書的使用方法
  1.6  思考題
第2章  生成對抗網路攻擊與防護
  2.1  生成對抗網路概述
  2.2  生成對抗網路的基本原理與改進模型
    2.2.1  基本原理
    2.2.2  改進模型
  2.3  生成對抗網路攻擊的基礎知識
    2.3.1  問題定義
    2.3.2  攻擊原理
    2.3.3  攻擊分類
  2.4  實踐案例:基於生成對抗網路的sin曲線樣本模擬
    2.4.1  實踐概述
    2.4.2  實踐環境
    2.4.3  實踐步驟
    2.4.4  實踐核心代碼
    2.4.5  實踐結果
  2.5  實踐案例:基於對抗性攻擊無數據替代訓練的模型竊取
    2.5.1  實踐概述
    2.5.2  實踐環境
    2.5.3  實踐步驟
    2.5.4  實踐核心代碼
    2.5.5  實踐結果
  2.6  生成對抗網路攻擊的防護
    2.6.1  針對惡意樣本生成的防護
    2.6.2  針對模型竊取攻擊的防護
  2.7  實踐案例:基於DenseNet對真實人臉和StyleGAN生成的虛假人臉進行識別
    2.7.1  實踐概述
    2.7.2  實踐環境
    2.7.3  實踐步驟
    2.7.4  實踐核心代碼
    2.7.5  實踐結果
  2.8  思考題
第3章  數據投毒攻擊與防護
  3.1  數據投毒攻擊概述
  3.2  數據投毒攻擊的原理
    3.2.1  數據投毒攻擊形式
    3.2.2  數據投毒攻擊優化公式
    3.2.3  數據投毒攻擊過程
    3.2.4  實現數據投毒攻擊的方法
  3.3  實踐案例:基於卷積神經網路的數據投毒攻擊

    3.3.1  實踐概述
    3.3.2  實踐環境
    3.3.3  實踐步驟
    3.3.4  實踐核心代碼
    3.3.5  實踐結果
  3.4  數據投毒防護
    3.4.1  數據清洗
    3.4.2  魯棒性訓練
    3.4.3  異常檢測
    3.4.4  多模型驗證
  3.5  實踐案例:基於卷積神經網路的數據投毒防護
    3.5.1  實踐概述
    3.5.2  實踐環境
    3.5.3  實踐步驟
    3.5.4  實踐核心代碼
    3.5.5  實踐結果
  3.6  思考題
第4章  對抗樣本攻擊與防護
  4.1  對抗樣本攻擊概述
  4.2  對抗樣本攻擊的基礎知識
    4.2.1  問題定義
    4.2.2  攻擊分類
  4.3  對抗樣本攻擊演算法
    4.3.1  基於梯度的攻擊
    4.3.2  基於優化的攻擊
    4.3.3  基於遷移的攻擊
    4.3.4  基於查詢的攻擊
  4.4  實踐案例:MNIST手寫數字識別
    4.4.1  實踐概述
    4.4.2  實踐環境
    4.4.3  實踐步驟
    4.4.4  實踐核心代碼
    4.4.5  實踐結果
  4.5  對抗樣本攻擊防護
    4.5.1  數據層面
    4.5.2  模型層面
  4.6  思考題
第5章  後門攻擊與防護
  5.1  後門攻擊概述
    5.1.1  定義及背景
    5.1.2  相關研究發展
  5.2  後門攻擊的基礎知識
    5.2.1  後門攻擊的原理
    5.2.2  後門攻擊的分類
    5.2.3  常見的後門攻擊方法
  5.3  實踐案例:基於BadNets模型的後門攻擊
    5.3.1  實踐概述
    5.3.2  實踐環境
    5.3.3  實踐步驟
    5.3.4  實踐核心代碼

    5.3.5  實踐結果
  5.4  後門攻擊的防護
    5.4.1  後門攻擊的預防措施
    5.4.2  常見的檢測方法
  5.5  思考題
第6章  隱私攻擊與防護
  6.1  隱私攻擊概述
    6.1.1  人工智慧中的隱私問題
    6.1.2  隱私問題的重要性
    6.1.3  隱私問題的分類
  6.2  隱私攻擊的原理
    6.2.1  模型反演
    6.2.2  成員推理
    6.2.3  模型竊取
  6.3  實踐案例:基於梯度下降法的模型逆向攻擊
    6.3.1  實踐概述
    6.3.2  實踐環境
    6.3.3  實踐步驟
    6.3.4  實踐核心代碼
    6.3.5  實踐結果
  6.4  隱私攻擊防護
    6.4.1  數據預處理階段的隱私保護
    6.4.2  模型訓練階段的隱私保護
  6.5  思考題
第7章  預訓練攻擊與防護
  7.1  預訓練攻擊概述
    7.1.1  預訓練攻擊的定義與分類
    7.1.2  預訓練攻擊的背景
    7.1.3  攻擊場景與應用領域
  7.2  預訓練攻擊的原理
    7.2.1  預訓練模型的固有脆弱性
    7.2.2  數據污染與隱蔽攻擊機制
    7.2.3  參數空間操縱與漏洞傳播
    7.2.4  漏洞傳播的生態級影響
  7.3  預訓練攻擊防護
    7.3.1  數據層面的防護機制
    7.3.2  模型參數的安全加固
    7.3.3  訓練框架的安全重構
    7.3.4  動態防護與運行時監控
  7.4  實踐案例:針對Transformer模型的後門攻擊
    7.4.1  實踐概述
    7.4.2  實踐環境
    7.4.3  實踐步驟
    7.4.4  實踐核心代碼
    7.4.5  實踐結果
  7.5  實踐案例:針對Transformer模型的後門攻擊防護
    7.5.1  實踐概述
    7.5.2  實踐環境
    7.5.3  實踐步驟
    7.5.4  實踐核心代碼

    7.5.5  實踐結果
  7.6  思考題
第8章  偽造攻擊與防護
  8.1  偽造攻擊概述
    8.1.1  深度偽造技術的定義與發展
    8.1.2  應用場景
    8.1.3  社會影響
  8.2  偽造攻擊的原理
    8.2.1  圖像視頻偽造
    8.2.2  語音偽造
  8.3  實踐案例:基於深度偽造技術的人臉偽造
    8.3.1  實踐概述
    8.3.2  實踐環境
    8.3.3  實踐步驟
    8.3.4  實踐核心代碼
    8.3.5  實踐結果
  8.4  實踐案例:基於Tacotron2的語音合成
    8.4.1  實踐概述
    8.4.2  實踐環境
    8.4.3  實踐步驟
    8.4.4  實踐核心代碼
    8.4.5  實踐結果
  8.5  偽造攻擊防護
    8.5.1  圖像視頻偽造檢測
    8.5.2  語音偽造檢測
    8.5.3  基於多模態的檢測方法
  8.6  實踐案例:基於逆擴散的偽造溯源
    8.6.1  實踐概述
    8.6.2  實踐環境
    8.6.3  實踐步驟
    8.6.4  實踐核心代碼
    8.6.5  實踐結果
  8.7  思考題
第9章  人工智慧模型的攻擊與防護
  9.1  模型攻擊概述
  9.2  模型攻擊的原理
    9.2.1  對抗攻擊的原理
    9.2.2  模型反演攻擊的原理
    9.2.3  模型竊取攻擊的原理
    9.2.4  數據毒化攻擊的原理
    9.2.5  數據提取攻擊的原理
    9.2.6  成員推理攻擊的原理
    9.2.7  屬性推理攻擊的原理
  9.3  實踐案例:基於面部識別模型的模型反演攻擊
    9.3.1  實踐概述
    9.3.2  實踐環境
    9.3.3  實踐步驟
    9.3.4  實踐結果
  9.4  實踐案例:基於影子模型的成員推理攻擊
    9.4.1  實踐概述

    9.4.2  實踐環境
    9.4.3  實踐步驟
    9.4.4  實踐結果
  9.5  實踐案例:基於神經網路的屬性推理攻擊
    9.5.1  實踐概述
    9.5.2  實踐環境
    9.5.3  實踐步驟
    9.5.4  實踐結果
  9.6  模型攻擊防護
    9.6.1  對抗訓練
    9.6.2  輸入檢查與消毒
    9.6.3  模型結構防護
    9.6.4  查詢控制防護
    9.6.5  聯邦學習
    9.6.6  數字水印
  9.7  思考題
第10章  模型竊取與防護
  10.1  模型竊取概述
  10.2  模型屬性竊取演算法
    10.2.1  基於元學習的模型竊取攻擊
    10.2.2  線性分類器模型竊取攻擊
    10.2.3  基於生成對抗網路的模型竊取攻擊
    10.2.4  決策邊界竊取攻擊
  10.3  模型功能竊取演算法
    10.3.1  基於雅可比矩陣的模型竊取
    10.3.2  基於深度學習的模型竊取
    10.3.3  基於強化學習的模型竊取
    10.3.4  基於主動學習的模型竊取
  10.4  實踐案例:黑盒環境下的模型竊取攻擊
    10.4.1  實踐概述
    10.4.2  實踐環境
    10.4.3  實踐步驟
    10.4.4  實踐核心代碼
    10.4.5  實踐結果
  10.5  模型竊取防護
    10.5.1  限制查詢訪問
    10.5.2  輸出混淆與雜訊添加
    10.5.3  模型水印與指紋
    10.5.4  提高模型魯棒性
  10.6  思考題
第11章  大語言模型安全
  11.1  大語言模型安全概述
  11.2  大語言模型的攻擊類型
  11.3  大語言模型的倫理與合規
    11.3.1  偏見和公平問題
    11.3.2  隱私和安全
    11.3.3  問責制和透明度
    11.3.4  促進社會利益和人類價值觀
  11.4  實踐案例:CyberSecEval大語言模型安全評估
    11.4.1  實踐概述

    11.4.2  實踐環境
    11.4.3  實踐步驟
    11.4.4  實踐核心代碼
    11.4.5  實踐結果
  11.5  大語言模型的安全防護機制
  11.6  思考題
參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032