幫助中心 | 我的帳號 | 關於我們

深入淺出人工智慧(AI入門的第一本書新時代技術新未來)

  • 作者:編者:張川//陳海林//朱振宇|責編:劉洋
  • 出版社:清華大學
  • ISBN:9787302686750
  • 出版日期:2025/04/01
  • 裝幀:平裝
  • 頁數:308
人民幣:RMB 89 元      售價:
放入購物車
加入收藏夾

內容大鋼
    人工智慧(Artificial Intelligence,AI)技術正在席捲全球,大家都希望能快速掌握AI的基本技術,參與到這個充滿前景的領域,但是苦於缺乏相關的基礎,對AI行業的術語難以快速理解。本書從基本的概念出發,以日常生活和工作中的實例為基礎,深入淺出地闡述AI技術的原理,讀者即便沒有任何相關的技術基礎,也能快速掌握主要的概念,從而完成AI的入門學習。
    本書內容涵蓋AI基本原理、機器學習、神經網路等核心技術,適合IT技術人員、企業管理者、大學生等讀者群體閱讀。

作者介紹
編者:張川//陳海林//朱振宇|責編:劉洋

目錄
第1篇  每個人都能懂的人工智慧
  第1章  人工智慧很簡單—從初中數學到專家系統
    1.1  用初中數學知識來理解人工智慧
    1.2  人工智慧四大基礎心法
    1.3  追求女神這件事,技術宅男搞不定
    1.4  同樣是尬聊,帶點智慧結果就不一樣了
    1.5  專家系統—追女仔,我們是專業的
  第2章  機器學習是實現人工智慧的必經之路
    2.1  機器能幫我們做什麼
    2.2  機器學習修煉手冊
    2.3  來來來,圍觀人家機器是怎麼學習的
      2.3.1  有監督學習—給出標準答案的學習
      2.3.2  無監督學習—「別人家的孩子」
      2.3.3  強化學習—真的學霸,能自己探索最優策略
    2.4  認識幾個專業術語—AI界的「切口」
第2篇  人工智慧的底層邏輯
  第3章  風起雲湧的人工智慧戰國時代
    3.1  一個神族和人族的賭局
    3.2  回歸預測—未卜先知不是夢
      3.2.1  線性回歸—做股市裡最靚的仔
      3.2.2  套索回歸&嶺回歸—線性回歸的改良版
      3.3.3  讓損失函數最小化的方法—梯度下降
    3.3  邏輯回歸—1912年4月15日
    3.4  K近鄰—圈子對了,事就成了
    3.5  決策樹—選擇比努力更重要?
      3.5.1  用決策樹選出心中的女神
      3.5.2  ID3、C4.5和CART演算法—不斷提高決策的效率
      3.5.3  解決過擬合問題—剪枝
      3.5.4  隨機森林—借助現場觀眾的智慧
    3.6  支持向量機—人臉識別的利器
      3.6.1  線性可分問題—楚河漢界
      3.6.2  線性不可分問題—靠穿越能解決的都不叫事兒
      3.6.3  多分類問題—笨人也有笨辦法
    3.7  樸素貝葉斯演算法—買彩票走向人生巔峰
    3.8  演算法實戰—用人工智慧解決實際問題
      3.8.12  0分鐘搭建Python環境
      3.8.2  線性回歸—預測鳶尾花的花瓣寬度
      3.8.3  邏輯回歸—泰坦尼克號乘客的倖存概率
      3.8.4  K近鄰—給電影分類
      3.8.5  支持向量機—判斷真正購買的客戶
      3.8.6  決策樹模型—判斷能否獲得貸款
  第4章  神經網路的崛起—不是老夫離不開江湖,而是江湖離不開老夫
    4.1  最簡單的神經元—大道至簡
    4.2  加層—神經網路的曲折成佛之路
    4.3  神經網路工作的基本原理—大王讓我來巡山
      4.3.1  獅駝嶺的「妖怪神經網路」
      4.3.2  國有國法,妖有妖規
      4.3.3  模式識別—獅駝嶺基本法
    4.4  神經網路vs傳統機器學習
    4.5  深度機器學習的三大步驟—大模型是怎麼煉成的

      4.5.1  預訓練—培養一位合格的運動員
      4.5.2  微調—為具體比賽做準備
      4.5.3  對齊—查缺補漏
    4.6  人工智慧科技樹回顧
    4.7  神經網路實戰—讓MLP識別6歲孩子寫的數字
第3篇  煮酒論模型
  第5章  卷積神經網路(CNN)—圖像識別背後的技術
    5.1  卷積,卷的是什麼?
    5.2  用卷積核提取喵星人的特徵
    5.3  猜錯了怎麼辦?—知錯就改,不斷進步
    5.4  神秘的神經網路—人類無法理解的黑箱
    5.5  CNN實戰—讓機器能識別飛機、汽車、貓和狗
  第6章  生成式對抗網路(GAN)—魔高一尺,道高一丈
    6.1  兩個玩家的博弈—生成器和判別器
      6.1.1  生成器—字畫偽造者
      6.1.2  判別器—字畫鑒定師
    6.2  多輪「博弈」和「進化」
    6.3  要注意的細節
  第7章  擴散模型(DiffusionModel)—文字生圖
    7.1  讀心術—女神心裡的「520」
    7.2  從GAN到VAE—「左右手互搏」vs「經脈逆轉」
    7.3  擴散模型—越來越火爆的江湖絕技
      7.3.1  擴散模型的靈感—覆水可收
      7.3.2  從后驗概率到DDPM—降低生成圖像的難度
      7.3.3  基於高斯分佈預測雜訊—另一種方式實現熵減
    7.4  StableDiffusion—文生圖的首選
      7.4.1  StableDiffusion架構—SD魔法箱里的三件法寶
      7.4.2  訓練U-Net去除雜訊—培訓一位合格的雕刻家
      7.4.3  基於CLIP模型創作圖像—既懂文字又懂圖像的專家
  第8章  機器翻譯,想說愛你不容易
    8.1  機翻毀一生
    8.2  讓機器翻譯變得絲滑的奧秘—訓練,不斷地訓練
    8.3  單詞向量化—編製一個單詞向量大辭典
      8.3.1  化整為零—讓「結巴」來識文斷句
      8.3.2  向量—硅基生命理解世界的方式
      8.3.3  語言向量化的利器—Word2Vec
      8.3.4  詞向量小結
    8.4  理解一段話的重點—你得品,細細地品
      8.4.1  注意力不集中,送分題秒變送命題
      8.4.2  Transformer—AI界的「九陰真經」
      8.4.3  編碼器-解碼器(Encoder-Decoder)架構
      8.4.4  Transformer的秘密—3個神秘矩陣wq、wk、wv
      8.4.5  自注意力的計算方法
      8.4.6  點乘運算—精確計算兩個詞語之間的親密程度
      8.4.7  多頭注意力—同時關注多個特徵
      8.4.8  「注意力」與「自注意力」的區別
      8.4.9  位置編碼—解決語序問題
      8.4.10  掩碼—訓練的時候不能偷看答案
    8.5  Transformer原理小結
    8.6  單詞向量化實戰—用「結巴分詞」劃分token

  第9章  自然語言處理的那些事—神經網路語言模型的前世今生
    9.1  為什麼自然語言處理是人工智慧領域的一顆明珠
    9.2  機器是如何理解自然語言的
    9.3  暴力窮舉的語言模型—用盡全宇宙的原子也無法存儲的信息量
    9.4  基於統計的語言模型—「床前明菠蘿」?
    9.5  前饋神經網路(FNN)—從最基礎的講起
      9.5.1  前饋神經網路基本概念
      9.5.2  怎樣訓練前饋神經網路
      9.5.3  GPT的參數個數—1750億個
      9.5.4  神經網路怎麼看懂人話—每層都有自己的任務
      9.5.5  基於計數的詞向量生成—越過山丘,才發現無人等候
      9.5.6  基於推理實現詞向量生成—欲利其器,先明其理
      9.5.7  詞與詞之間的奇妙關係
      9.5.8  詞的意義取決於上下文
    9.6  循環神經網路模型(RNN)—不忘過往,面向未來
    9.7  長短期記憶神經網路(LSTM)—成熟就是學會遺忘
      9.7.1  「長依賴」問題—太長的句子誰都記不住啊
      9.7.2  LSTM的門控機制—腦海中的橡皮擦
    9.8  雙向RNN—像諾蘭一樣思考
    9.9  Seq2Seq—現實世界在模型中的體現
    9.10  RNN實戰—模仿莎士比亞寫作
      9.10.1  準備數據集&安裝必需的庫
      9.10.2  下載代碼並運行
      9.10.3  神經網路的訓練
      9.10.4  訓練完畢,生成文本
      9.10.5  代碼簡析
  第10章  Transformer架構解密—AIGC的核心技術
    10.1  注意力機制—一個字一個字地複述
    10.2  從架構上再次解析Transformer—變形的秘密
      10.2.1  編碼器(Encoder)—用庖丁解牛的方式解讀文字
      10.2.2  解碼器(Decoder)—充滿智慧的講述者
      10.2.3  嵌入層&位置編碼—從自然語言到機器向量
      10.2.4  輸出層—從機器向量回到自然語言
    10.3  Transformer的訓練過程
    10.4  Transformer的推理過程
    10.5  讓大模型懂你—利用大模型推理能力解決自己的問題
      10.5.1  RAG基本原理—一個專業的「知識外掛」
      10.5.2  LangChain簡介
    10.6  大模型用法實戰—RAG+LangChain實現客服機器人
      10.6.1  準備數據集&安裝必需的庫
      10.6.2  免費拿到試用密鑰
      10.6.3  下載代碼並運行
      10.6.4  代碼簡析
  第11章  Sora原理解密—物理世界的模擬器?
    11.1  Sora憑什麼嚇了世界一跳?
    11.2  Sora的實現原理—Transformer+Diffusion
      11.2.1  圖片連播就是視頻—《大鬧天宮》的原理
      11.2.2  視頻內容的整體訓練—短視頻的生成
      11.2.3  基於Patches訓練長視頻—Sora的訓練過程
    
    11.3  Sora真的模擬了這個物理世界嗎?
第4篇  對人工智慧的冷靜思考
  第12章  人工智慧的江湖八卦—在關鍵轉折點的選擇
    12.1  論Transformer的發家史—無心插柳柳成蔭
    12.2  BERTvsGPT—Transformer兩大發展方向
    12.3  為什麼ChatGPT可以技驚四座
    12.4  LLaMA—大羊駝的傳奇
  第13章  人工智慧是否能產生意識—人與機器的分界線
    13.1  一道經典的人工智慧測試題
    13.2  對人工智慧的官方測評—155頁的變態測試報告
    13.3  對人工智慧的民間測評—有本事就參加高考
    13.4  機器是如何「思考」的?
    13.5  奇點,湧現
    13.6  什麼是意識?
  第14章  誰是洗牌人,誰是被洗的牌?
    14.1  「人工智慧+」
    14.2  AI正在顛覆世界,是生存危機,還是潑天富貴?
    14.3  時代的一粒灰,落在每個人的肩頭就是一座大山
    14.4  從恐懼到了解,從了解到掌握
    14.5  人類智慧與人工智慧
參考文獻

  • 商品搜索:
  • | 高級搜索
首頁新手上路客服中心關於我們聯絡我們Top↑
Copyrightc 1999~2008 美商天龍國際圖書股份有限公司 臺灣分公司. All rights reserved.
營業地址:臺北市中正區重慶南路一段103號1F 105號1F-2F
讀者服務部電話:02-2381-2033 02-2381-1863 時間:週一-週五 10:00-17:00
 服務信箱:bookuu@69book.com 客戶、意見信箱:cs@69book.com
ICP證:浙B2-20060032