幫助中心 | 我的帳號 | 關於我們

基於GPT-3\ChatGPT\GPT-4等Transformer架構的自然語言處理

  • 作者:(法)丹尼斯·羅斯曼|責編:王軍//韓宏志|譯者:葉偉民
  • 出版社:清華大學
  • ISBN:9787302648727
  • 出版日期:2024/01/01
  • 裝幀:平裝
  • 頁數:353
人民幣:RMB 99.8 元      售價:
放入購物車
加入收藏夾

內容大鋼
Transformer正在顛覆A|領域。市面上有這
    么多平台和Transformer模型,哪些最符合你的需求?
    《基於GPT-3、ChatGPT、GPT-4等Transformer架構的自然語言處理》將引領你進入Transformer的世界,將講述不同模型和平台的優勢,指出如何消除模型的缺點和問題。本書將引導你使用Hugging Face從頭開始預訓練一個RoBERTa模型,包括構建數據集、定義數據整理器以及訓練模型等。
    本書分步展示如何微調GPT-3等預訓練模型,研究機器翻譯、語音轉文本、文本轉語音、問答等NLP任務,並介紹解決NLP難題的技術,甚至幫助你消除對假新聞的焦慮(詳見第13章)。
    從書中可了解到,諸如OpenAI的高級平台將Transformer擴展到語言領域、電腦視覺領域,並允許使用DALL-E 2、ChatGPT和GPT-4生成代碼。通過本書,你將了解到Transformer的工作原理以及如何實施Transformer來解決NLP問題。

作者介紹
(法)丹尼斯·羅斯曼|責編:王軍//韓宏志|譯者:葉偉民
    丹尼斯·羅斯曼Denis Rothman,畢業於索邦大學和巴黎一狄德羅大學,寫過最早的word2vector embedding解決方案之一。他創作了第一批AI認知自然語言處理(NLP)聊天機器人之一,這個聊天機器人開啟了他的職業生涯。它是一個語言教學應用程序,應用於Moet et Chandon和其他公司。他為IBM和服裝生產商編寫了一個AI資源優化器。然後,他還編寫了一個在全球範圍內使用的高級計劃和排程(APS)解決方案。

目錄
第1章  Transformer模型介紹
第2章  Transformer模型架構入門
第3章  微調BERT模型
第4章  從頭開始預訓練RoBERTa模型
第5章  使用Transformer處理下游NLP任務
第6章  機器翻譯
第7章  GPT-3
第8章  文本摘要(以法律和財務文檔為例)
第9章  數據集預處理和詞元分析器
第10章  基於BERT的語義角色標注
第11章  使用Transformer進行問答
第12章  情緒分析
第13章  使用Transformer分析假新聞
第14章  可解釋AI
第15章  從NLP到電腦視覺
第16章  AI助理
第17章  ChatGPT和GPT-4
附錄A  Transformer模型術語
附錄B  Transformer模型的硬體約束
附錄C  使用GPT-2進行文本補全
附錄D  使用自定義數據集訓練GPT-2模型
附錄E  練習題答案
參考資料

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032