幫助中心 | 我的帳號 | 關於我們

機器學習與數量宏觀經濟學(以PyTorch為工具)

  • 作者:馮志鋼|責編:裴蕾|譯者:李小平
  • 出版社:北京大學
  • ISBN:9787301365236
  • 出版日期:2026/01/01
  • 裝幀:平裝
  • 頁數:216
人民幣:RMB 69 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書將機器學習技術與數量宏觀經濟學有機融合,通過案例分析與數學推導,系統展示了如何運用機器學習方法解決高維動態均衡模型問題——特別是含有異質代理人和不完全市場條件下的模型問題,為宏觀經濟學研究者提供了一部詳實的方法指南和案例集錦。
    在書中,作者首先闡述機器學習的基本原理及關鍵概念;然後,介紹如何應用PyTorch進行機器學習,以期為讀者提供必要的工具;最後,在介紹典型隨機增長模型的傳統解法后,通過詳實的過程演示,指導讀者如何基於機器學習方法對標準模型進行高效求解,及對包含各類摩擦的非最優模型進行數值模擬。書中案例配有相關PyTorch代碼實現,以期幫助讀者理解如何將理論概念轉化為實際應用。
    本書內容源自作者在中南財經政法大學、對外經濟貿易大學等院校所講授的課程,以及在bilibili網站「中南宏觀」個人頻道發布的視頻課程。本書不僅為攻克計算宏觀經濟學難題奠定了堅實基礎,也為宏觀經濟學研究者提供了創新的關鍵工具。

作者介紹
馮志鋼|責編:裴蕾|譯者:李小平

目錄
第一章  機器學習基礎
  1.1  通過Sora理解機器學習
    1.1.1  流形分佈定理和低維數據
    1.1.2  Sora的突破與局限性
    1.1.3  臨界態和物理悖論:機器學習的新前沿
  1.2  機器學習與宏觀經濟學中的均衡
    1.2.1  經濟模型與物理系統模型的對比
    1.2.2  推動機器學習和經濟建模進步的幾何方法
  1.3  機器學習的要素、目標及評估
    1.3.1  理解要素
    1.3.2  機器學習的目標:泛化
    1.3.3  評估性能
  1.4  機器學習的三要素
    1.4.1  模型
    1.4.2  學習準則
    1.4.3  優化演算法
  1.5  泛化與模型選擇
    1.5.1  泛化誤差、過擬合與欠擬合
    1.5.2  偏差-方差權衡
    1.5.3  評估泛化性能的技術
    1.5.4  正則化技術
    1.5.5  集成方法
    1.5.6  模型可解釋性和可說明性
  1.6  機器學習的一個簡單實例———線性回歸
    1.6.1  參數學習
  1.7  小結
  習題
第二章  機器學習中的神經網路
  2.1  神經元
  2.2  激活函數
    2.2.1  神經元的線性變換
    2.2.2  神經網路線性變換、Arrow-Debreu資產模型和流形分佈定理
    2.2.3  通過激活函數進行非線性變換
    2.2.4  Sigmoid函數
    2.2.5  Hard-Logistic和Hard-Tanh函數
    2.2.6  ReLU函數
    2.2.7  Swish函數
    2.2.8  GELU函數
    2.2.9  Maxout單元
    2.2.10  選擇激活函數
  2.3  網路結構
  2.4  前饋神經網路
    2.4.1  通用近似定理
    2.4.2  機器學習中的應用
    2.4.3  參數學習
    2.4.4  Dropout技術
  2.5  反向傳播演算法
    2.5.1  反向傳播演算法的數學基礎
    2.5.2  神經網路中反向傳播的示例
    2.5.3  優化與改進

  2.6  自動梯度計算
    2.6.1  數值微分
    2.6.2  符號微分
    2.6.3  自動微分
  2.7  小結
  習題
第三章  PyTorch與機器學習
  3.1  PyTorch簡介
    3.1.1  什麼是PyTorch?
    3.1.2  使用PyTorch進行機器學習的優勢
    3.1.3  安裝PyTorch
    3.1.4  PyTorch基礎
  3.2  PyTorch中的張量
    3.2.1  什麼是張量?理解PyTorch的核心數據結構
    3.2.2  張量操作
  3.3  在PyTorch中構建神經網路
    3.3.1  理解神經網路的結構
    3.3.2  激活函數
    3.3.3  損失函數
    3.3.4  在PyTorch中優化演算法
  3.4  準備訓練數據
    3.4.1  生成用於回歸的隨機數據
    3.4.2  創建PyTorch數據集
    3.4.3  數據載入器和批處理
    3.4.4  數據變換和增強
  3.5  訓練模型
    3.5.1  Autograd:PyTorch的自動微分引擎
    3.5.2  模型訓練和優化
    3.5.3  定義模型架構
    3.5.4  初始化模型和設備選擇
    3.5.5  訓練循環
    3.5.6  監控訓練進度
  3.6  保存和載入模型
    3.6.1  保存訓練好的模型參數
    3.6.2  載入預訓練模型
    3.6.3  在動態宏觀模型中的應用
  3.7  超參數調優
    3.7.1  理解超參數
    3.7.2  超參數調優技術
    3.7.3  使用PyTorch的內置超參數調優工具
  3.8  使用PyTorch訓練回歸模型
  3.9  JIT編譯加速執行
  3.10  小結
  習題
第四章  隨機增長模型的數值方法
  4.1  模型設置
    4.1.1  社會規劃者問題
    4.1.2  求解方法
  4.2  擾動法
  4.3  投影法

    4.3.1  有限元方法
    4.3.2  切比雪夫多項式的譜方法
    4.3.3  Smolyak演算法
    4.3.4  與神經網路的聯繫
  4.4  值函數迭代
  4.5  不同求解方法的表現
  4.6  小結
  習題
第五章  通過機器學習求解動態均衡模型
  5.1  消費-儲蓄問題
  5.2  深度學習解法
    5.2.1  生命周期回報
    5.2.2  歐拉方程
    5.2.3  貝爾曼方程
  5.3  PyTorch實例
  5.4  深度學習方法的優勢
  5.5  小結
  習題
第六章  通過機器學習分析異質代理人模型
  6.1  具有總量不確定性的異質代理人模型
    6.1.1  經濟環境
    6.1.2  競爭均衡
  6.2  主要計算挑戰
    6.2.1  將分佈作為狀態變數
    6.2.2  分佈的演化
  6.3  基於機器學習的演算法
    6.3.1  基於直方圖的分佈近似
    6.3.2  基於神經網路的函數近似
    6.3.3  值函數和策略函數迭代演算法
  6.4  小結
  習題
第七章  強化學習與非最優經濟體
  7.1  經濟環境
    7.1.1  家庭
    7.1.2  政府
    7.1.3  政府問題的遞歸表示
  7.2  均衡的計算
    7.2.1  集合Ω的刻畫
    7.2.2  通過機器學習計算均衡
    7.2.3  數值演算法概述
  7.3  小結
  習題
參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032