幫助中心 | 我的帳號 | 關於我們

在線凸優化(第2版)/電腦與智能科學叢書

  • 作者:(美)埃拉德·哈贊|責編:王軍|譯者:羅俊仁//張萬鵬
  • 出版社:清華大學
  • ISBN:9787302661122
  • 出版日期:2024/06/01
  • 裝幀:平裝
  • 頁數:215
人民幣:RMB 99.8 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書全面更新,深入探索優化和機器學習交叉領域,詳細介紹日常生活中許多系統和模型的優化過程。
    本書增加了關於提升、自適應遺憾和可接近性的章節擴大了優化和學習理論的覆蓋面應用實例包含專家建議投資組合選擇、矩陣補全推薦系統和支持向量機訓練等。

作者介紹
(美)埃拉德·哈贊|責編:王軍|譯者:羅俊仁//張萬鵬
    埃拉德·哈贊(Elad Hazan)普林斯頓大學電腦科學教授,谷歌人工智慧普林斯頓公司的聯合創始人和董事。他專註于機器學習和優化中基本問題的演算法設計和分析的研究,曾獲得貝爾實驗室獎、2008年度和2012年度IBM Goldberg最佳論文獎、歐洲研究理事會獎、瑪麗·居里獎學金和谷歌研究獎。他曾在計算學習協會指導委員會任職,並擔任COLT2015程序委員會主席,2017年與他人共同創建了致力於高效優化和控制的In8公司。

目錄
第1章  導論
  1.1  在線凸優化設置
  1.2  可用OCO建模的問題示例
    1.2.1  從專家建議中預測
    1.2.2  在線垃圾郵件過濾
    1.2.3  在線最短路徑
    1.2.4  投資組合選擇
    1.2.5  矩陣補全和推薦系統
  1.3  混合的開始:從專家建議中學習
    1.3.1  加權多數演算法
    1.3.2  隨機加權多數
    1.3.3  Hedge
  1.4  文獻評述
  1.5  練習
第2章  凸優化基本概念
  2.1  基本定義和設置
    2.1.1  凸集上的投影
    2.1.2  最優條件介紹
  2.2  梯度下降
    2.2.1  Polyak步長
    2.2.2  度量與最優值之間的距離
    2.2.3  Polyak步長分析
  2.3  約束梯度/次梯度下降
  2.4  非光滑和非強凸函數的歸約
    2.4.1  光滑且非強凸函數的歸約
    2.4.2  強凸非光滑函數的歸約
    2.4.3  一般凸函數的歸約
  2.5  示例:支持向量機訓練
  2.6  文獻評述
  2.7  練習
第3章  在線凸優化一階演算法
  3.1  在線梯度下降
  3.2  下界
  3.3  對數遺憾
  3.4  應用:隨機梯度下降
  3.5  文獻評述
  3.6  練習
第4章  二階方法
  4.1  動機:通用投資組合選擇
    4.1.1  主流投資組合理論
    4.1.2  通用投資組合理論
    4.1.3  持續再平衡投資組合
  4.2  指數凹函數
  4.3  指數加權OCO
  4.4  在線牛頓步演算法
  4.5  文獻評述
  4.6  練習
第5章  正則化
  5.1  正則化函數
  5.2  RFTL演算法及其分析

    5.2.1  元演算法定義
    5.2.2  遺憾界
  5.3  在線鏡像下降
    5.3.1  懶惰版在線鏡像下降與RFTL的等價性
    5.3.2  鏡像下降的遺憾界
  5.4  應用與特例
    5.4.1  推導在線梯度下降
    5.4.2  推導乘法更新
  5.5  隨機正則化
    5.5.1  凸損失擾動
    5.5.2  線性代價函數擾動
    5.5.3  專家建議的FPL演算法
  5.6  自適應梯度下降
  5.7  文獻評述
  5.8  練習
第6章  賭博機凸優化
  6.1  賭博機凸優化設置
  6.2  多臂賭博機問題
  6.3  從有限信息歸約至完全信息
    6.3.1  第一部分:使用無偏估計
    6.3.2  第二部分:逐點梯度估計
  6.4  無需梯度在線梯度下降
  6.5  賭博機線性優化的最優遺憾演算法
    6.5.1  自和諧勢壘
    6.5.2  一個近似最優演算法
  6.6  文獻評述
  6.7  練習
第7章  無投影演算法
  7.1  回顧:線性代數的相關概念
  7.2  動機:推薦系統
  7.3  條件梯度法
  7.4  投影與線性優化
  7.5  在線條件梯度演算法
  7.6  文獻評述
  7.7  練習
第8章  博弈,對偶與遺憾
  8.1  線性規劃與對偶
  8.2  零和博弈與均衡
  8.3  馮·諾依曼定理證明
  8.4  近似線性規劃
  8.5  文獻評述
  8.6  練習
第9章  學習理論,泛化性與在線凸優化
  9.1  統計學習理論
    9.1.1  過擬合
    9.1.2  免費午餐
    9.1.3  學習問題示例
    9.1.4  定義泛化性與可學習性
  9.2  使用在線凸優化的不可知學習
    9.2.1  余項:度量集中和鞅

    9.2.2  歸約的分析
  9.3  學習與壓縮
  9.4  文獻評述
  9.5  練習
第10章  在變化的環境中學習
  10.1  一個簡單的開始:動態遺憾
  10.2  自適應遺憾的概念
  10.3  跟蹤最好的專家
  10.4  在線凸優化的有效自適應遺憾
  10.5  計算高效的方法
  10.6  文獻評述
  10.7  練習
第11章  Boosting與遺憾
  11.1  Boosting的問題
  11.2  基於在線凸優化的Boosting
    11.2.1  簡化設置
    11.2.2  演算法與分析
    11.2.3  AdaBoost
    11.2.4  補全路線圖
  11.3  文獻評述
  11.4  練習
第12章  在線Boosting
  12.1  動機:向大量專家學習
    12.1.1  示例:Boosting在線二進位分類
    12.1.2  示例:個性化文章配置
  12.2  情境學習模型
  12.3  延拓運算元
  12.4  在線Boosting方法
  12.5  文獻評述
  12.6  練習

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032