幫助中心 | 我的帳號 | 關於我們

機器學習(貝葉斯和優化方法英文版原書第2版)(精)/經典原版書庫

  • 作者:(希)西格爾斯·西奧多里蒂斯|責編:曲熠
  • 出版社:機械工業
  • ISBN:9787111668374
  • 出版日期:2021/01/01
  • 裝幀:精裝
  • 頁數:1130
人民幣:RMB 299 元      售價:
放入購物車
加入收藏夾

內容大鋼
    本書對所有重要的機器學習方法和新近研究趨勢進行了深入探索,通過講解監督學習的兩大支柱——回歸和分類,站在全景視角將這些繁雜的方法一一打通,形成了明晰的機器學習知識體系。
    新版對內容做了全面更新,使各章內容相對獨立。全書聚焦于數學理論背後的物理推理,關注貼近應用層的方法和演算法,並輔以大量實例和習題,適合該領域的科研人員和工程師閱讀,也適合學習模式識別、統計/自適應信號處理、統計/貝葉斯學習、稀疏建模和深度學習等課程的學生參考。
    此外,本書的所有代碼均可免費下載,包含MATLAB和Python兩個版本。
    第2版重要更新
    ·重寫了關於神經網路和深度學習的章節,以反映自第1版以來的新進展。這一章從感知器和前饋神經網路的基礎概念開始討論,對深度網路進行了深入研究,涵蓋較新的優化演算法、批標準化、正則化技術(如Dropout方法)、CNN和RNN、注意力機制、對抗樣本和對抗訓練、膠囊網路、生成架構(如RBM)、變分自編碼器和GAN。
    ·擴展了關於貝葉斯學習的內容,包括非參數貝葉斯方法,重點討論中國餐館過程(CRP)和印度自助餐過程(IBP)。

作者介紹
(希)西格爾斯·西奧多里蒂斯|責編:曲熠
    西格爾斯·西奧多里蒂斯(Sergios Theodoridis),雅典大學教授,研究興趣包括機器學習、模式識別和信號處理等。他是IEEE(電氣和電子工程師學會)和EURASIP(歐洲信號處理協會)的會士,並擔任IEEE信號處理會刊的主編。曾獲2014年IEEE信號處理雜誌最佳論文獎,2009年IEEE計算智能協會傑出論文獎,以及2014年EURASIP最有價值服務獎等。此外,他還是經典暢銷著作《模式識別》的第一作者。

目錄
Preface
Acknowledgments
About the Author
Notation
CHAPTER 1  Introduction
  1.1  The Historical Context
  1.2  Artificia Intelligenceand Machine Learning
  1.3  Algorithms Can Learn WhatIs Hidden in the Data
  1.4  Typical Applications of Machine Learning
    Speech Recognition
    Computer Vision
    Multimodal Data
    Natural Language Processing
    Robotics
    Autonomous Cars
    Challenges for the Future
  1.5  Machine Learning: Major Directions
    1.5.1  Supervised Learning
  1.6  Unsupervised and Semisupervised Learning
  1.7  Structure and a Road Map of the Book
    References
CHAPTER 2  Probability and Stochastic Processes
  2.1  Introduction
  2.2  Probability and Random Variables
    2.2.1  Probability
    2.2.2  Discrete Random Variables
    2.2.3  Continuous Random Variables
    2.2.4  Meanand Variance
    2.2.5  Transformation of Random Variables
  2.3  Examples of Distributions
    2.3.1  Discrete Variables
    2.3.2  Continuous Variables
  2.4  Stochastic Processes
    2.4.1  First-and Second-Order Statistics
    2.4.2  Stationarity and Ergodicity
    2.4.3  Power Spectral Density
    2.4.4  Autoregressive Models
  2.5  Information Theory
    2.5.1  Discrete Random Variables
    2.5.2  Continuous Random Variables
  2.6  Stochastic Convergence
    Convergence Everywhere
    Convergence Almost Everywhere
    Convergence in the Mean-Square Sense
    Convergence in Probability
    Convergence in Distribution
  Problems
  References
CHAPTER 3  Learning in Parametric Modeling: Basic Concepts and Directions
  3.1  Introduction

  3.2  Parameter Estimation: the Deterministic Point of View
  3.3  Linear Regression
  3.4  Classifcation
    Generative Versus Discriminative Learning
  3.5  Biased Versus Unbiased Estimation
    3.5.1  Biased or Unbiased Estimation
  3.6  The Cramer-Rao Lower Bound
  3.7  Suffcient Statistic
  3.8  Regularization
    Inverse Problems: Ill-Conditioning and Overfittin
  3.9  The Bias-Variance Dilemma
    3.9.1  Mean-Square Error Estimation
    3.9.2  Bias-Variance Tradeoff
  3.10  Maximum Likelihood Method
    3.10.1  Linear Regression: the Nonwhite Gaussian Noise Case
  3.11  Bayesian Inference
    3.11.1  The Maximum a Posteriori Probability Estimation Method
  3.12  Curse of Dimensionality
  3.13  Validation
    Cross-Validation
  3.14  Expected Loss and Empirical Risk Functions
    Learnability
  3.15  Nonparametric Modeling and Estimation
    Problems
      MATLAB? Exercises
    References
CHAPTER 4  Mean-Square Error Linear Estimation
  4.1  Introduction
  4.2  Mean-Square Error Linear Estimation: the Normal Equations
    4.2.1  The Cost Function Surface
  4.3  A Geometric Viewpoint: Orthogonality Condition
  ……
CHAPTER 5  Online Learning: the Stochastic Gradient Descent Family of Algorithms
CHAPTER 6  The Least-Squares Family
CHAPTER 7  Classification: a Tour of the Classics
CHAPTER 8  Parameter Learning: a Convex Analytic Path
CHAPTER 9  Sparsity-Aware Learning: Concepts and Theoretical Foundations
CHAPTER 10  Sparsity-Aware Learning: Algorithms and Applications
CHAPTER 11  Learning in Reproducing Kernel Hilbert Spaces
CHAPTER 12  Bayesian Learning: Inference and the EM Algorithm
CHAPTER 13  Bayesian Learning: Approximate Inference and Nonparametric Models
CHAPTER 14  Monte Carlo Methods
CHAPTER 15  Probabilistic Graphical Models: Part Ⅰ
CHAPTER 16  Probabilistic Graphical Models: Part Ⅱ
CHAPTER 17  Particle Filtering
CHAPTER 18  Neural Networks and Deep Learning
CHAPTER 19  Dimensionality Reduction and Latent Variable Modeling
Index

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032