【第一篇 入門 – PyTorch 基礎】
第 1 章 快速了解人工智慧與 PyTorch
1.1 圖神經網路與深度學習
1.2 PyTorch 是做什麼的
1.3 PyTorch 的特點
1.4 PyTorch 與 TensorFlow 各有所長
1.5 如何使用本書學好深度學習
第 2 章 架設開發環境
2.1 下載及安裝 Anaconda
2.2 安裝 PyTorch
2.3 熟悉 Anaconda 3 的開發工具
2.4 測試開發環境
第 3 章 PyTorch 基本開發步驟 -- 用邏輯回歸擬合二維資料
3.1 實例 1:從一組看似混亂的資料中找出規律
3.2 模型是如何訓練出來的
3.3 複習
第 4 章 快速上手 PyTorch
4.1 神經網路中的幾個基底資料型態
4.2 張量類別的基
4.3 張量與 NumPy
4.4 在 CPU 和 GPU 控制的記憶體中定義張量
4.5 生成隨機值張
4.6 張量間的數學運算
4.7 張量間的資料操作
4.8 Variable 類型與自動微分模組
4.9 定義模型結構的步驟與方法
4.10 模型的網路層
第 5 章 神經網路的基本原理與實現
5.1 了解深度學習中的神經網路與神經元
5.2 深度學習中的基礎神經網路模型
5.3 什麼是全連接神經網路
5.4 啟動函數--加入非線性因素,彌補線性模型缺陷
5.5 啟動函數複習
5.6 訓練模型的步驟與方法
5.7 神經網路模組 (nn) 中的損失函數
5.8 Softmax 演算法 -- 處理分類問題
5.9 最佳化器模組
5.10 學習率衰減 -- 在訓練的速度與精度之間找到平衡
5.11 實例 4:預測鐵達尼號船上的生存乘客
【第二篇 基礎 -- 神經網路的監督訓練與無監督訓練】
第 6 章 實例 5:辨識黑白圖中的服裝圖案
6.1 熟悉樣本:了解 Fashion-MNIST 資料集
6.2 製作批次資料集
6.3 建構並訓練模型
6.4 載入模型,並用其進行預測
6.5 評估模型
6.6 擴充:多顯示卡平行訓練
第 7 章 監督學習中的神經網路
7.1 從視覺的角度了解卷積神經網路
7.2 卷積神經網路的結構
7.3 卷積神經網路的實現
7.4 深層卷積神經網路
7.5 循環神經網路結構
7.6 常見的循環神經網路單元及結構
7.7 實例 11:用循環神經網路訓練語言模型
7.8 過擬合問題及最佳化技巧
7.9 神經網路中的注意力機制
7.10 實例 18:利用注意力循環神經網路對圖片分類
第 8 章 無監督學習中的神經網路
8.1 快速了解資訊熵
8.2 通用的無監督模型 -- 自編碼神經網路與對抗神經網路
8.3 自編碼神經網路
8.4 實例 19:用變分自編碼神經網路模型生成模擬資料
8.5 實例 20:用條件變分自編碼神經網路生成可控模擬資料
8.6 對抗神經網路
8.7 實例 21:用 WGAN-gp 模型生成模擬資料
8.8 實例 22:用條件 GAN 生成可控模擬資料
8.9 實例 23:實現帶有 W 散度的 GAN -- WGAN-div 模型
8.10 散度在神經網路中的應用
8.11 實例 25:用最大化深度相互資訊模型執行圖片搜索器
第 9 章 快速了解圖神經網路 -- 少量樣本也可以訓練模型
9.1 圖神經網路的相關基礎知識
9.2 矩陣的基礎
9.3 鄰接矩陣的幾種操作
9.4 實例 26:用圖卷積神經網路為論文分類
9.5 圖卷積神經網路
9.6 擴充實例:用 Multi-sample Dropout 最佳化模型的訓練速度
9.7 從圖神經網路的角度看待深度學習
9.8 圖神經網路使用拉普拉斯矩陣的原因
第 10 章 基於空間域的圖神經網路實現
10.1 重新認識圖卷積神經網路
10.2 實例 27:用圖注意力神經網路為論文分類
10.3 圖神經網路常用函數庫 – DGL 函數庫
10.4 DGLGraph 圖的基本操作
10.5 實例 28:用帶有殘差結構的多層 GAT 模型實現論文分類
10.6 圖卷積模型的缺陷
10.7 實例 29:用簡化圖卷積模型實現論文分類
10.8 實例 30:用圖濾波神經網路模型實現論文分類
10.9 實例 31:用深度圖相互資訊模型實現論文分類
10.10 實例 32:用圖同構網路模型實現論文分類
10.11 實例 33:用APPNP模型實現論文分類
10.12 實例 34:用JKNet模型實現論文分類
10.13 複習