破解深度學習:模型算法與實現(xiàn)(核心篇)
定 價:109.8 元
讀者對象:本書適用于有志于投身人工智能領(lǐng)域的人員
本書旨在采用一種符合讀者認知角度且能提升其學習效率的方式來講解深度學習背后的核心知識、原理和內(nèi)在邏輯。經(jīng)過基礎篇的學習,想必你已經(jīng)對深度學習的總體框架有了初步的了解和認識,掌握了深度神經(jīng)網(wǎng)絡從核心概念、常見問題到典型網(wǎng)絡的基本知識。本書為核心篇,將帶領(lǐng)讀者實現(xiàn)從入門到進階、從理論到實戰(zhàn)的跨越。全書共7章,前三章包括復雜CNN、RNN和注意力機制網(wǎng)絡,深入詳解各類主流模型及其變體;第4章介紹這三類基礎模型的組合體,即概率生成模型;第5章和第6章著重介紹這些復雜模型在計算機視覺和自然語言處理兩大最常見領(lǐng)域的應用;第7章講解生成式大語言模型的內(nèi)在原理并對其發(fā)展趨勢予以展望。本書系統(tǒng)全面,深入淺出,且輔以生活中的案例進行類比,以此降低學習難度,能夠幫助讀者迅速掌握深度學習的基礎知識。本書適合有志于投身人工智能領(lǐng)域的人員閱讀,也適合作為高等院校人工智能相關(guān)專業(yè)的教學用書。
1.基于教育博主梗直哥創(chuàng)作的人工智能系列視頻和課程編寫2.配套視頻(付費內(nèi)容)助力學習。3.涵蓋當前深度學習的熱點領(lǐng)域。4.知乎、B站、GZH、知識星球等平臺設有交流互動渠道。
·瞿煒,美國伊利諾伊大學人工智能博士,哈佛大學、京都大學客座教授;前中國科學院大學教授、模式識別國家重點實驗室客座研究員;國家部委特聘專家、重點實驗室學術(shù)委員會委員;國際期刊編委,多個學術(shù)期刊審稿人及國際學術(shù)會議委員。在人工智能業(yè)界擁有二十余年的技術(shù)積累和實踐經(jīng)驗,曾先后在互聯(lián)網(wǎng)、醫(yī)療、安防、教育等行業(yè)的多家世界 500 強企業(yè)擔任高管。他是授業(yè)解惑科技有限公司的創(chuàng)始人,以及多家人工智能、金融公司的聯(lián)合創(chuàng)始人,還是一名天使投資人。憑借多年的專業(yè)積淀和卓越的行業(yè)洞察力,瞿煒博士近年來致力于人工智能教育事業(yè)的發(fā)展。作為教育博主,他擅長用通俗易懂的表達方式結(jié)合直觀生動的模型動畫,講述復雜的人工智能理論與算法;創(chuàng)作的人工智能系列視頻和課程在 B 站(賬號:梗直哥丶)/知乎/GZH/視頻號(賬號:梗直哥丶)等平臺深受學生們的歡迎和認可,累計訪問量超數(shù)千萬人次。 ·李力,人工智能專家,長期致力于計算機視覺和強化學習領(lǐng)域的研究與實踐。曾在多家科技企業(yè)擔任資深算法工程師,擁有十余年行業(yè)經(jīng)驗,具備豐富的技術(shù)能力和深厚的理論知識。在他的職業(yè)生涯中,李力參與并領(lǐng)導了眾多深度學習和強化學習的核心技術(shù)項目,有效地應用先進模型解決圖像識別、目標檢測、自然語言處理、機器人研發(fā)等多個領(lǐng)域的實際問題。 ·楊潔,人工智能和自然語言處理領(lǐng)域資深應用專家,在自然語言理解、基于知識的智能服務、跨模態(tài)語言智能、智能問答系統(tǒng)等技術(shù)領(lǐng)域具有深厚的實戰(zhàn)背景。她曾在教育、醫(yī)療等行業(yè)的企業(yè)擔任關(guān)鍵職位,擁有十年以上的行業(yè)管理經(jīng)驗,成功領(lǐng)導并實施了多個創(chuàng)新項目,擅長引領(lǐng)團隊將復雜的理論轉(zhuǎn)化為實際應用,解決行業(yè)中的關(guān)鍵問題。
第 1章 復雜卷積神經(jīng)網(wǎng)絡:捕獲精細特征 11.1 AlexNet 21.1.1 AlexNet簡介 21.1.2 代碼實現(xiàn) 31.1.3 模型訓練 61.1.4 小結(jié) 101.2 VGGNet 101.2.1 VGGNet簡介 101.2.2 代碼實現(xiàn) 131.2.3 模型訓練 151.2.4 小結(jié) 161.3 批歸一化方法 161.3.1 批歸一化簡介 161.3.2 代碼實現(xiàn) 171.3.3 模型訓練 191.3.4 小結(jié) 201.4 GoogLeNet 201.4.1 GoogLeNet簡介 201.4.2 Inception結(jié)構(gòu) 201.4.3 GoogLeNet的模型結(jié)構(gòu) 211.4.4 代碼實現(xiàn) 221.4.5 模型訓練 251.4.6 小結(jié) 261.5 ResNet 261.5.1 ResNet簡介 261.5.2 殘差結(jié)構(gòu) 271.5.3 ResNet模型結(jié)構(gòu) 281.5.4 代碼實現(xiàn) 301.5.5 模型訓練 351.5.6 小結(jié) 361.6 DenseNet 361.6.1 DenseNet簡介 361.6.2 代碼實現(xiàn) 391.6.3 模型訓練 441.6.4 小結(jié) 44第 2章 復雜循環(huán)神經(jīng)網(wǎng)絡:為記憶插上翅膀 462.1 雙向RNN和深度RNN 472.1.1 雙向RNN 472.1.2 深度RNN 482.1.3 小結(jié) 512.2 RNN長期依賴問題 512.2.1 什么是長期依賴 522.2.2 長期記憶失效原因 522.2.3 截斷時間步 532.2.4 小結(jié) 542.3 長短期記憶網(wǎng)絡及其變體 542.3.1 核心思想 542.3.2 網(wǎng)絡結(jié)構(gòu) 552.3.3 遺忘門 562.3.4 輸入門 562.3.5 輸出門 572.3.6 門控循環(huán)單元 572.3.7 小結(jié) 602.4 四種RNN代碼實現(xiàn) 602.4.1 模型定義 602.4.2 模型實驗 632.4.3 效果對比 662.4.4 小結(jié) 67第3章 復雜注意力神經(jīng)網(wǎng)絡:大模型的力量 683.1 BERT模型 683.1.1 3種模型結(jié)構(gòu) 693.1.2 詞嵌入 703.1.3 預訓練:掩碼語言模型 703.1.4 預訓練:下一句預測 713.1.5 微調(diào) 723.1.6 優(yōu)缺點 733.1.7 小結(jié) 743.2 GPT系列模型 743.2.1 GPT-1模型思想和結(jié)構(gòu) 753.2.2 GPT-1無監(jiān)督預訓練和監(jiān)督微調(diào) 763.2.3 GPT-1數(shù)據(jù)集和性能特點 773.2.4 GPT-2模型思想和結(jié)構(gòu) 783.2.5 GPT-2 數(shù)據(jù)集和性能特點 793.2.6 GPT-3 模型思想和結(jié)構(gòu) 803.2.7 基于情景學習的對話模式 803.2.8 GPT-3 數(shù)據(jù)集和性能特點 833.2.9 小結(jié) 843.3 T5模型 843.3.1 基本思想 843.3.2 詞表示發(fā)展史 853.3.3 模型結(jié)構(gòu) 863.3.4 預訓練流程 873.3.5 預訓練數(shù)據(jù)集 883.3.6 模型版本 893.3.7 小結(jié) 893.4 ViT模型 903.4.1 Transformer的好處 903.4.2 模型結(jié)構(gòu) 903.4.3 數(shù)據(jù)預處理 913.4.4 圖片塊和位置嵌入 913.4.5 Transformer編碼器 923.4.6 MLP頭 933.4.7 性能對比 933.4.8 小結(jié) 943.5 Swin Transformer模型 943.5.1 要解決的問題 953.5.2 模型結(jié)構(gòu) 953.5.3 輸入預處理 973.5.4 四個階段 973.5.5 Swin Transformer塊 983.5.6 窗口注意力 983.5.7 計算復雜度分析 983.5.8 移動窗口多頭自注意力機制 993.5.9 特征圖循環(huán)移位計算 993.5.10 masked MSA操作 1003.5.11 小結(jié) 101第4章 深度生成模型:不確定性的妙用 1024.1 蒙特卡洛方法 1034.1.1 采樣 1044.1.2 重要性采樣 1054.1.3 馬爾可夫鏈蒙特卡洛方法 1054.1.4 小結(jié) 1064.2 變分推斷方法 1064.2.1 參數(shù)估計 1074.2.2 問題定義 1084.2.3 算法思路 1084.2.4 KL散度 1094.2.5 公式推導 1094.2.6 高斯混合模型實例 1104.2.7 與MCMC方法對比 1114.2.8 小結(jié) 1114.3 變分自編碼器 1124.3.1 降維思想 1124.3.2 自編碼器 1124.3.3 VAE基本思想 1144.3.4 隱空間可視化 1174.3.5 神經(jīng)網(wǎng)絡實現(xiàn) 1174.3.6 重新參數(shù)化技巧 1184.3.7 小結(jié) 1194.4 生成對抗網(wǎng)絡 1194.4.1 什么是對抗生成思想 1194.4.2 模型結(jié)構(gòu) 1204.4.3 判別器 1214.4.4 生成器 1214.4.5 訓練流程 1214.4.6 損失函數(shù) 1234.4.7 小結(jié) 1234.5 擴散模型 1234.5.1 模型對比 1244.5.2 基本思想 1244.5.3 前向過程 1254.5.4 逆向過程 1264.5.5 損失函數(shù) 1284.5.6 損失函數(shù)的參數(shù)化 1294.5.7 訓練流程 1304.5.8 小結(jié) 1304.6 深度生成模型項目實戰(zhàn) 1314.6.1 代碼實現(xiàn) 1314.6.2 VAE模型 1324.6.3 GAN模型 1364.6.4 小結(jié) 140第5章 計算機視覺:讓智慧可見 1415.1 自定義數(shù)據(jù)加載 1415.1.1 數(shù)據(jù)加載 1415.1.2 數(shù)據(jù)準備 1425.1.3 ImageFolder方法 1425.1.4 自定義數(shù)據(jù)集示例1 1455.1.5 自定義數(shù)據(jù)集示例2 1475.1.6 小結(jié) 1505.2 圖像數(shù)據(jù)增強 1505.2.1 數(shù)據(jù)增強簡介 1505.2.2 代碼準備 1505.2.3 常見圖像數(shù)據(jù)增強方法 1535.2.4 小結(jié) 1595.3 遷移學習 1605.3.1 遷移學習簡介 1605.3.2 ResNet預訓練模型 1605.3.3 ViT預訓練模型 1635.3.4 小結(jié) 1655.4 經(jīng)典計算機視覺數(shù)據(jù)集 1655.4.1 數(shù)據(jù)集簡介 1655.4.2 小結(jié) 1695.5 項目實戰(zhàn):貓狗大戰(zhàn) 1705.5.1 項目簡介 1705.5.2 數(shù)據(jù)準備 1705.5.3 模型訓練 1755.5.4 模型預測 1785.5.5 小結(jié) 180第6章 自然語言處理:人機交互懂你所說 1816.1 詞嵌入和Word2Vec 1816.1.1 獨熱編碼 1816.1.2 Word2Vec 1826.1.3 Gensim代碼實現(xiàn) 1856.1.4 小結(jié) 1866.2 詞義搜索和句義表示 1866.2.1 文本搜索方法 1866.2.2 正則搜索 1876.2.3 詞義搜索 1886.2.4 距離計算方法 1896.2.5 句子向量 1896.2.6 代碼實現(xiàn) 1906.2.7 常見應用 1926.2.8 小結(jié) 1926.3 預訓練模型 1936.3.1 預訓練和遷移學習 1936.3.2 遷移學習族譜 1946.3.3 大語言模型 1946.3.4 LLM進化方向 1966.3.5 BERT系列進化 1976.3.6 GPT系列進化 1976.3.7 多模態(tài)模型 1996.3.8 存在的問題 2006.3.9 小結(jié) 2006.4 Hugging Face庫介紹 2006.4.1 核心庫 2006.4.2 官網(wǎng)介紹 2016.4.3 代碼調(diào)用 2046.4.4 小結(jié) 2076.5 NLP數(shù)據(jù)集 2076.5.1 預訓練數(shù)據(jù)集 2086.5.2 下游任務數(shù)據(jù)集 2096.5.3 數(shù)據(jù)集使用 2116.5.4 小結(jié) 2136.6 項目實戰(zhàn):電影評論情感分析 2136.6.1 Pipeline 2136.6.2 模型實戰(zhàn) 2146.6.3 直接微調(diào) 2196.6.4 小結(jié) 221第7章 多模態(tài)生成式人工智能:引領(lǐng)智能新時代 2227.1 CLIP模型 2227.1.1 計算機視覺研究新范式 2237.1.2 對比學習預訓練 2237.1.3 圖像編碼器 2247.1.4 文本編碼器 2247.1.5 數(shù)據(jù)收集 2247.1.6 圖像分類 2257.1.7 模型訓練和優(yōu)缺點分析 2267.1.8 小結(jié) 2277.2 DALL·E系列模型 2277.2.1 初代模型結(jié)構(gòu) 2277.2.2 dVAE模塊 2287.2.3 Transformer模塊 2297.2.4 圖像生成過程 2307.2.5 DALL·E 2 模型結(jié)構(gòu) 2307.2.6 CLIP模塊 2317.2.7 prior模塊 2327.2.8 decoder模塊 2327.2.9 DALL·E 2 推理過程 2337.2.10 模型效果 2337.2.11 局限分析 2337.2.12 小結(jié) 2347.3 InstructGPT模型 2357.3.1 GPT系列回顧 2357.3.2 指示學習和提示學習 2357.3.3 人工反饋強化學習 2367.3.4 訓練流程 2377.3.5 數(shù)據(jù)集采集 2387.3.6 監(jiān)督微調(diào) 2397.3.7 獎勵模型 2397.3.8 強化學習 2397.3.9 優(yōu)缺點分析 2407.3.10 小結(jié) 2407.4 深度學習最新發(fā)展趨勢分析 2407.4.1 趨勢1:多模態(tài)融合 2417.4.2 趨勢2:AIGC大爆發(fā) 2427.4.3 趨勢3:大小模型分化 2437.4.4 趨勢4:概率分布模型的大發(fā)展 2447.4.5 趨勢5:深度強化學習的春天 2447.4.6 更多展望 2457.5 下一步學習的建議 2457.5.1 動手實踐 2457.5.2 PyTorch官方文檔和課程 2467.5.3 推薦網(wǎng)站 2467.5.4 多讀論文 2477.5.5 關(guān)于強化學習 2477.5.6 繼續(xù)加油 248