背景知識總覽
喺深入 KataGo 實戰之前,理解圍棋 AI 嘅發展歷史同核心技術係非常重要嘅。本章節會帶你了解由 AlphaGo 到現代圍棋 AI 嘅技術演進。
點解需要了解背景知識?
圍棋 AI 嘅發展係人工智能領域最令人振奮嘅突破之一。2016 年 AlphaGo 擊敗李世乭嘅比賽,唔止係圍棋史上嘅里程碑,更標誌住深度學習同強化學習結合嘅巨大成功。
理解呢啲背景知識可以幫你:
- 做出更好嘅技術決策:了解各種方法嘅優缺點,揀適合你專案嘅方案
- 更有效咁除錯:理解底層原理,更容易診斷問題
- 跟上最新發展:掌握基礎知識,更容易理解新論文同新技術
- 貢獻開源專案:參與 KataGo 等專案開發需要深入理解佢嘅設計理念
本章內容
AlphaGo 論文解讀
深入解析 DeepMind 嘅經典論文,包括:
- AlphaGo 嘅歷史意義同影響
- Policy Network 同 Value Network 嘅設計
- 蒙特卡羅樹搜索 (MCTS) 嘅原理同實作
- Self-play 訓練方法嘅創新
- 由 AlphaGo 到 AlphaGo Zero 再到 AlphaZero 嘅演進
KataGo 論文解讀
了解目前最強開源圍棋 AI 嘅技術創新:
- KataGo 相對於 AlphaGo 嘅改進
- 更高效嘅訓練方法同資源利用
- 支援多種圍棋規則嘅技術實現
- 同時預測勝率同目數嘅設計
- 點解 KataGo 可以用更少資源達到更強棋力
其他圍棋 AI 介紹
全面了解圍棋 AI 生態系統:
- 商業 AI:天頂(Zen)、絕藝(騰訊)、星陣
- 開源 AI:Leela Zero、ELF OpenGo、SAI
- 各 AI 嘅技術特點同適用場景比較
技術發展時間線
| 時間 | 事件 | 重要性 |
|---|---|---|
| 2015 年 10 月 | AlphaGo 擊敗樊麾 | 首次 AI 擊敗職業棋手 |
| 2016 年 3 月 | AlphaGo 擊敗李世乭 | 震驚世界嘅人機大戰 |
| 2017 年 5 月 | AlphaGo 擊敗柯潔 | 確立 AI 超越人類頂尖水平 |
| 2017 年 10 月 | AlphaGo Zero 發表 | 純自我對弈,唔使人類棋譜 |
| 2017 年 12 月 | AlphaZero 發表 | 通用化設計,同時征服圍棋、西洋棋、將棋 |
| 2018 年 | Leela Zero 達到超人水平 | 開源社群嘅勝利 |
| 2019 年 | KataGo 發表 | 更高效嘅訓練方法 |
| 2020-至今 | KataGo 持續改進 | 成為最強開源圍棋 AI |
核心概念預覽
喺閱讀詳細章節之前,呢度簡要介紹幾個核心概念:
神經網絡喺圍棋入面嘅角色
棋盤狀態 → 神經網絡 → { Policy(落子機率), Value(勝率評估)}
神經網絡接收當前棋盤狀態作為輸入,輸出兩種資訊:
- Policy:每個位置嘅落子機率,指導搜索方向
- Value:當前局面嘅勝率估計,用嚟評估局面
蒙特卡羅樹搜索 (MCTS)
MCTS 係一種搜索演算法,結合神經網絡嚟決定最佳著法:
- Selection(選擇):由根節點選擇最有希望嘅路徑
- Expansion(擴展):喺葉節點擴展新嘅可能著法
- Evaluation(評估):用神經網絡評估局面價值
- Backpropagation(回傳):將評估結果回傳更新路徑上嘅節點
Self-play(自我對弈)
AI 同自己對弈嚟產生訓練資料:
初始模型 → 自我對弈 → 收集棋譜 → 訓練新模型 → 更強模型 → 重複
呢個循環令 AI 能夠不斷自我提升,唔使依賴人類棋譜。
建議閱讀順序
- 先讀 AlphaGo 論文解讀:建立基礎理論框架
- 再讀 KataGo 論文解讀:了解最新改進同優化
- 最後讀其他圍棋 AI 介紹:擴展視野,了解唔同實現方式
準備好未?等我哋由 AlphaGo 論文解讀 開始啦!