幫助中心 | 我的帳號 | 關於我們

人工智慧注意力機制(體系模型與演算法剖析)/人工智慧科學與技術叢書

  • 作者:傅罡|責編:李培培
  • 出版社:機械工業
  • ISBN:9787111744764
  • 出版日期:2024/03/01
  • 裝幀:平裝
  • 頁數:428
人民幣:RMB 169 元      售價:
放入購物車
加入收藏夾

內容大鋼
    「注意」作為一切思維活動的起點,一直是哲學、心理學和認知神經科學的重點研究對象。隨著電腦技術的發展,人類對注意力機制的模擬和應用成為電腦科學領域的熱點研究方向——讓電腦能夠具有類似人類的注意力機制,使其能夠有效地應用於對數據的理解和分析。Transformer模型誕生后,注意力機制在人工智慧各大重要領域的研究和應用更是如火如荼,成果豐碩。
    本書從注意力機制這一重要角度入手,闡述注意力機制的產生背景和發展歷程,通過詳實的理論剖析,以深入淺出的方式著重介紹注意力機制在電腦視覺、自然語言處理,以及多模態機器學習三大人工智慧方向中的應用思路、模型與演算法。
    本書以人工智慧相關專業研究人員,特別是電腦視覺與自然語言處理等領域的研發人員作為主要讀者對象,一方面幫其梳理技術的發展脈絡、開拓思路、構建完整的認知體系;另一方面為其剖析演算法原理、深刻理解演算法細節。

作者介紹
傅罡|責編:李培培
    傅罡,博士,畢業於清華大學,高級工程師。現就職于同方威視技術股份有限公司人工智慧研發中心,長期負責人工智慧演算法研發和研發管理工作。2015年,進入清華大學同方威視校企聯合博士后工作站進行博士后研究工作。2017年至今,作為技術負責人或骨幹參與多個國家級和省部級重點研究項目。長期關注人工智慧技術的進展,對自然語言處理、電腦視覺等領域的各類人工智慧演算法有著深刻的理解和獨到的見解,並擅長用通俗易懂的語言進行闡述和表達。

目錄
第1章  人類注意力與電腦注意力——從認識自我到改造世界
  1.1  本源思考:哲學中的注意力
    1.1.1  早期哲學的樸素觀點
    1.1.2  注意力視為一般認知現象
    1.1.3  注意力作為重要研究對象
  1.2  心路歷程:心理學中的注意力
    1.2.1  實驗心理學中的注意力
    1.2.2  認知心理學中的注意力
  1.3  深入腦海:認知神經科學中的注意力
    1.3.1  認知神經科學的研究基礎和方法
    1.3.2  認知神經科學中的注意力研究
  1.4  改造世界:電腦科學中的注意力
    1.4.1  人工智慧為什麼要討論注意力?
    1.4.2  注意力與電腦視覺
    1.4.3  注意力與自然語言處理
    1.4.4  注意力機制的多模態應用
  參考文獻
第2章  電腦視覺中的注意力
  2.1  注意力模型的分類
    2.1.1  客觀與主觀:自下而上的注意力與自上而下的注意力
    2.1.2  目的與手段:視覺顯著性檢測與視覺注意力機制
    2.1.3  掩膜與權重:硬性注意力與柔性注意力
    2.1.4  特徵與位置:特徵域注意力與空間域注意力
    2.1.5  自己與相互:自注意力與互注意力
  2.2  視覺顯著性檢測原理與模型剖析
    2.2.1  注視點預測
    2.2.2  顯著物體檢測
  2.3  注意力機制的電腦視覺應用與模型剖析
    2.3.1  目標搜索與識別
    2.3.2  細粒度分類
    2.3.3  神經網路中的通用注意力模塊
  參考文獻
第3章  自然語言處理中的注意力——「前Transformer」的時代
  3.1  機器翻譯與Seq2Seq模型
    3.1.1  機器翻譯
    人工智慧注意力機制:體系、模型與演算法剖析3.1.2  Seq2Seq模型
  3.2  自然語言處理中注意力機制的起源
    3.2.1  Seq2Seq模型的問題
    3.2.2  注意力Seq2Seq模型
  3.3  經典演算法剖析
    3.3.1  全局注意力與局部注意力機制
    3.3.2  層級注意力機制
    3.3.3  自注意力機制
  3.4  注意力機制的形式化表示
  參考文獻
第4章  「只要注意力」的Transformer
  4.1  Transformer的誕生
  4.2  Transformer的編碼器-解碼器架構
    4.2.1  編碼器結構
    4.2.2  解碼器結構

  4.3  Transformer的輸入與輸出
    4.3.1  詞嵌入
    4.3.2  位置編碼
    4.3.3  Transformer的輸出
  4.4  Transformer的注意力機制
    4.4.1  縮放點積注意力
    4.4.2  多頭注意力
    4.4.3  編碼器與解碼器中的注意力模塊
  4.5  一些其他問題
    4.5.1  BatchNorm與LayerNorm
    4.5.2  模型訓練的Teacher Forcing模式
    4.5.3  序列預測的Beam Search方法
  參考文獻
第5章  自然語言處理中的預訓練範式與Transformer的「一統江湖」
  5.1  語言建模
    5.1.1  從統計語言模型到神經網路語言模型
    5.1.2  單向語言模型與雙向語言模型
    5.1.3  自回歸語言模型與自編碼語言模型
  5.2  自然語言處理中的預訓練範式
    5.2.1  「預訓練+微調」範式
    5.2.2  「預訓練+提示」範式
  5.3  預訓練模型概覽
  5.4  基於Transformer的預訓練模型
    5.4.1  GPT:Transformer的「右手」
    5.4.2  BERT:Transformer的「左手」
    5.4.3  Transformer-XL與XLNet:從任意長輸入到「更好的BERT」
    5.4.4  RoBERTa與ALBERT:「魯棒版BERT」與「瘦身版BERT」
    5.4.5  MASS、BART與UniLM:序列到序列的模型
    5.4.6  ERNIE「雙雄」:借助外部數據的增強模型
    5.4.7  XLM:跨語種預訓練語言模型
5.4.8GPT-2.0與GPT-3.0:超級模型
  參考文獻
第6章  電腦視覺中的Transformer
  6.1  視覺Transformer模型概覽
  6.2  卷積還是注意力?
  6.3  Transformer的電腦視覺應用與演算法剖析
    6.3.1  圖像分類與通用主幹網路
    6.3.2  目標檢測
    6.3.3  圖像分割
    6.3.4  自監督預訓練模型
  參考文獻
第7章  多模態機器學習中的注意力機制
  7.1  多模態技術發展史
  7.2  多模態機器學習面臨的挑戰
  7.3  視覺語言多模態模型
    7.3.1  視覺語言任務簡介
    7.3.2  視覺語言模型中的注意力機制
  7.4  經典多模態模型剖析
    7.4.1  早期單任務視覺語言模型
    7.4.2  視覺語言預訓練模型

    7.4.3  提示驅動CV模型
    7.4.4  新型生成模型
  參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032