這個章節適合想要深入研究圍棋 AI 的工程師,涵蓋技術實作、理論基礎與實務應用。
文章總覽
核心技術
效能優化
進階主題
| 文章 | 說明 |
|---|
| 分散式訓練架構 | Self-play Worker、資料收集、模型發布 |
| 自訂規則與變體 | 中國、日本、AGA 規則,棋盤大小變體 |
| 關鍵論文導讀 | AlphaGo、AlphaZero、KataGo 論文重點解析 |
開源與實作
你想做什麼?
進階概念索引
深入研究時,你會接觸到以下進階概念:
F 系列:縮放(8 個)
| 編號 | 圍棋概念 | 物理/數學對應 |
|---|
| F1 | 棋盤大小 vs 複雜度 | 複雜度縮放 |
| F2 | 網路大小 vs 棋力 | 容量縮放 |
| F3 | 訓練時間 vs 收益 | 收益遞減律 |
| F4 | 資料量 vs 泛化 | 樣本複雜度 |
| F5 | 計算資源縮放 | 縮放定律 |
| F6 | 神經縮放律 | 雙對數關係 |
| F7 | 大批次訓練 | 臨界批次 |
| F8 | 參數效率 | 壓縮界限 |
G 系列:維度(6 個)
| 編號 | 圍棋概念 | 物理/數學對應 |
|---|
| G1 | 高維表示 | 向量空間 |
| G2 | 維度災難 | 高維困境 |
| G3 | 流形假設 | 低維流形 |
| G4 | 中間表示 | 隱空間 |
| G5 | 特徵解耦 | 獨立成分 |
| G6 | 語意方向 | 幾何代數 |
H 系列:強化學習(9 個)
| 編號 | 圍棋概念 | 物理/數學對應 |
|---|
| H1 | MDP | 馬可夫鏈 |
| H2 | 貝爾曼方程 | 動態規劃 |
| H3 | 價值迭代 | 不動點定理 |
| H4 | 策略梯度 | 隨機優化 |
| H5 | 經驗回放 | 重要性採樣 |
| H6 | 折扣因子 | 時間偏好 |
| H7 | TD 學習 | 增量估計 |
| H8 | 優勢函數 | 基線減方差 |
| H9 | PPO 裁剪 | 信賴域 |
K 系列:優化方法(6 個)
| 編號 | 圍棋概念 | 物理/數學對應 |
|---|
| K1 | SGD | 隨機逼近 |
| K2 | 動量 | 慣性 |
| K3 | Adam | 自適應步長 |
| K4 | 學習率衰減 | 退火 |
| K5 | 梯度裁剪 | 飽和限制 |
| K6 | SGD 噪聲 | 隨機擾動 |
L 系列:泛化與穩定(5 個)
| 編號 | 圍棋概念 | 物理/數學對應 |
|---|
| L1 | 過擬合 | 過度適應 |
| L2 | 正則化 | 約束優化 |
| L3 | Dropout | 稀疏激活 |
| L4 | 資料增強 | 對稱破缺 |
| L5 | 早停 | 最優停止 |
硬體需求
閱讀與學習
無特殊需求,任何電腦都可以。
訓練模型
| 規模 | 建議硬體 | 訓練時間 |
|---|
| 迷你(b6c96) | GTX 1060 6GB | 數小時 |
| 小型(b10c128) | RTX 3060 12GB | 1-2 天 |
| 中型(b18c384) | RTX 4090 24GB | 1-2 週 |
| 完整(b40c256) | 多 GPU 集群 | 數週 |
分散式訓練貢獻
- 任何有 GPU 的電腦都可以參與
- 建議至少 GTX 1060 或同等級
- 需要穩定的網路連線
開始閱讀
推薦從這裡開始: