幫助中心 | 我的帳號 | 關於我們

簡明神經網路(南京大學人工智慧系列教材江蘇省高等學校重點教材)

  • 作者:編者:申富饒|責編:姚蕾//陳佳媛
  • 出版社:機械工業
  • ISBN:9787111765400
  • 出版日期:2025/01/01
  • 裝幀:平裝
  • 頁數:260
人民幣:RMB 79 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書是神經網路課程的入門教材,用通俗易懂的語言講解神經網路的相關知識。本書共6章,第1章對神經網路領域進行概述,包括其歷史和應用;第2章深入探討神經元的數學模型,包括其輸入、權值、偏置和激活函數;第3章介紹感知機的概念,討論感知機的結構,並解釋如何用它來解決簡單的分類問題;第4章介紹多層感知機的概念,講述如何使用前饋傳播和反向傳播,同時詳細介紹了反向傳播中用到的鏈式法則;第5章涵蓋訓練神經網路時使用的各種參數和運算元;第6章介紹神經網路的分散式學習、壓縮和解釋,其中分散式學習涵蓋使用多台電腦或設備在大型數據集上訓練神經網路的內容。

作者介紹
編者:申富饒|責編:姚蕾//陳佳媛
    申富饒,電腦軟體新技術全國重點實驗室(南京大學)、南京大學人工智慧學院教授、博士生導師。主要研究方向包括神經網路、數據分析、機器人智能等,在國內外發表學術論文120余篇。

目錄
前言
主要符號表
第1章  緒論
  1.1  神經網路簡介
    1.1.1  神經網路的定義
    1.1.2  神經網路的工作過程
  1.2  神經網路的應用
  1.3  神經網路的研究目標
  1.4  神經網路的發展歷史
    1.4.1  歷史大事件概述
    1.4.2  神經網路領域的重要人物及團隊
    1.4.3  神經網路領域的重要期刊
  1.5  神經網路的研究現狀
  1.6  神經網路的研究方法
  1.7  小結
  練習
第2章  神經元
  2.1  神經元模型
    2.1.1  生物神經元
    2.1.2  人工神經元
  2.2  神經元的組成成分
    2.2.1  神經元的激發
    2.2.2  神經元的整合
  2.3  感知機神經元
    2.3.1  感知機神經元模型
    2.3.2  感知機神經元的學習
    2.3.3  感知機神經元的學習規則
    2.3.4  神經元模型的特性
  2.4  神經元的應用
    2.4.1  單元線性回歸
    2.4.2  多元線性回歸
    2.4.3  雙輸入–單輸出的線性分類
    2.4.4  單個神經元的局限
  2.5  小結
  練習
第3章  單層感知機
  3.1  神經元的連接
    3.1.1  神經元的連接概述
    3.1.2  神經網路的擴展
    3.1.3  其他連接方式
  3.2  單層感知機
    3.2.1  單層感知機的結構和數學表達
    3.2.2  最小均方演算法
    3.2.3  最小均方演算法的優勢與缺陷
    3.2.4  將最小均方演算法用於感知機
    3.2.5  感知機收斂定理
  3.3  單層感知機的應用
    3.3.1  用感知機分析健康及收入狀況
    3.3.2  用感知機求解線性二分類問題
    3.3.3  多輸入–多輸出的線性三分類問題

  3.4  小結
  練習
第4章  多層感知機
  4.1  引入隱藏層的必要性
    4.1.1  單層感知機的局限
    4.1.2  單隱藏層神經網路
    4.1.3  單隱藏層神經網路的數學表示
    4.1.4  多隱藏層
  4.2  多層感知機的基本概念
    4.2.1  多層感知機的數學表示
    4.2.2  多層感知機的運行
    4.2.3  示例:異或問題
    4.2.4  示例:雙月模型
  4.3  多層感知機的學習
    4.3.1  基本原理
    4.3.2  感知機學習與逼近方法的數學分析
    4.3.3  梯度下降法
    4.3.4  反向傳播演算法
    4.3.5  反向傳播演算法分析
    4.3.6  反向傳播演算法改進
  4.4  多層感知機的深入分析
    4.4.1  通用近似定理
    4.4.2  網路結構超參數選擇
    4.4.3  神經元排列方式的影響
  4.5  多層感知機的應用
    4.5.1  環數據集分類任務
    4.5.2  手寫數字分類任務
    4.5.3  Fashion-MNIST分類任務
    4.5.4  函數擬合任務
    4.5.5  曲面擬合任務
  4.6  小結
  練習
第5章  神經網路模型優化
  5.1  學習率
    5.1.1  學習率的影響
    5.1.2  常見的學習率選擇方法
  5.2  損失函數
    5.2.1  回歸損失函數
    5.2.2  分類損失函數
  5.3  正則化
    5.3.1  泛化能力
    5.3.2  常見的正則化方法
  5.4  歸一化
    5.4.1  簡單的歸一化方法
    5.4.2  神經網路中的歸一化方法
  5.5  參數初始化
    5.5.1  全0初始化
    5.5.2  常見的權值矩陣初始化方法
    5.5.3  常見的偏置矩陣初始化方法
    5.5.4  初始化參數對訓練的優化程度

  5.6  網路預訓練
    5.6.1  無監督預訓練
    5.6.2  有監督預訓練
  5.7  TREC分類任務
    5.7.1  任務介紹
    5.7.2  解決方案
    5.7.3  實驗結果
    5.7.4  模型優化
  5.8  小結
  練習
第6章  神經網路的分散式學習、壓縮和解釋
  6.1  神經網路分散式學習
    6.1.1  分散式學習簡介
    6.1.2  常用的分散式劃分方法
    6.1.3  常用的通信機制
    6.1.4  常用的模型聚合方法
    6.1.5  使用PyTorch進行分散式學習
  6.2  神經網路壓縮
    6.2.1  神經網路壓縮的意義和定義
    6.2.2  神經網路壓縮方法
    6.2.3  神經網路剪枝
  6.3  神經網路可解釋性
    6.3.1  神經網路可解釋性簡介
    6.3.2  神經網路可解釋性方法分類
    6.3.3  神經網路可解釋性方法評估
    6.3.4  神經網路可解釋性研究展望
    6.3.5  使用PyTorch進行可解釋性分析
  6.4  小結
  練習
參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032