跳至主要内容

背景知識總覽

在深入 KataGo 實戰之前,理解圍棋 AI 的發展歷史與核心技術是非常重要的。本章節將帶你了解從 AlphaGo 到現代圍棋 AI 的技術演進。

為什麼需要了解背景知識?

圍棋 AI 的發展是人工智慧領域最令人振奮的突破之一。2016 年 AlphaGo 擊敗李世乭的比賽,不僅是圍棋史上的里程碑,更標誌著深度學習與強化學習結合的巨大成功。

理解這些背景知識能幫助你:

  • 做出更好的技術決策:了解各種方法的優缺點,選擇適合你專案的方案
  • 更有效地除錯:理解底層原理,更容易診斷問題
  • 跟上最新發展:掌握基礎知識,更容易理解新論文與新技術
  • 貢獻開源專案:參與 KataGo 等專案開發需要深入理解其設計理念

本章內容

AlphaGo 論文解讀

深入解析 DeepMind 的經典論文,包括:

  • AlphaGo 的歷史意義與影響
  • Policy Network 與 Value Network 的設計
  • 蒙特卡羅樹搜索 (MCTS) 的原理與實作
  • Self-play 訓練方法的創新
  • 從 AlphaGo 到 AlphaGo Zero 再到 AlphaZero 的演進

KataGo 論文解讀

了解目前最強開源圍棋 AI 的技術創新:

  • KataGo 相對於 AlphaGo 的改進
  • 更高效的訓練方法與資源利用
  • 支援多種圍棋規則的技術實現
  • 同時預測勝率與目數的設計
  • 為何 KataGo 能以更少資源達到更強棋力

其他圍棋 AI 介紹

全面了解圍棋 AI 生態系統:

  • 商業 AI:天頂(Zen)、絕藝(騰訊)、星陣
  • 開源 AI:Leela Zero、ELF OpenGo、SAI
  • 各 AI 的技術特點與適用場景比較

技術發展時間線

時間事件重要性
2015 年 10 月AlphaGo 擊敗樊麾首次 AI 擊敗職業棋手
2016 年 3 月AlphaGo 擊敗李世乭震驚世界的人機大戰
2017 年 5 月AlphaGo 擊敗柯潔確立 AI 超越人類頂尖水平
2017 年 10 月AlphaGo Zero 發表純自我對弈,無需人類棋譜
2017 年 12 月AlphaZero 發表通用化設計,同時征服圍棋、西洋棋、將棋
2018 年Leela Zero 達到超人水平開源社群的勝利
2019 年KataGo 發表更高效的訓練方法
2020-至今KataGo 持續改進成為最強開源圍棋 AI

核心概念預覽

在閱讀詳細章節之前,這裡簡要介紹幾個核心概念:

神經網路在圍棋中的角色

棋盤狀態 → 神經網路 → { Policy(落子機率), Value(勝率評估)}

神經網路接收當前棋盤狀態作為輸入,輸出兩種資訊:

  • Policy:每個位置的落子機率,指導搜索方向
  • Value:當前局面的勝率估計,用於評估局面

蒙特卡羅樹搜索 (MCTS)

MCTS 是一種搜索演算法,結合神經網路來決定最佳著法:

  1. Selection(選擇):從根節點選擇最有希望的路徑
  2. Expansion(擴展):在葉節點擴展新的可能著法
  3. Evaluation(評估):用神經網路評估局面價值
  4. Backpropagation(回傳):將評估結果回傳更新路徑上的節點

Self-play(自我對弈)

AI 與自己對弈來產生訓練資料:

初始模型 → 自我對弈 → 收集棋譜 → 訓練新模型 → 更強模型 → 重複

這個循環讓 AI 能夠不斷自我提升,不需要依賴人類棋譜。

建議閱讀順序

  1. 先讀 AlphaGo 論文解讀:建立基礎理論框架
  2. 再讀 KataGo 論文解讀:了解最新改進與優化
  3. 最後讀其他圍棋 AI 介紹:擴展視野,了解不同實現方式

準備好了嗎?讓我們從 AlphaGo 論文解讀 開始吧!