AlphaGo本頁導覽AlphaGo 2016 年 3 月,AlphaGo 以 4:1 擊敗世界冠軍李世乭,震撼全球。這不只是一場圍棋比賽的勝利,更標誌著人工智慧的重大突破。 AlphaGo 完整解析 本系列 20 篇深度文章,帶你從歷史背景、技術原理、到實作細節,完整理解 AlphaGo 的一切。 第一部分:歷史背景 01 - AlphaGo 的誕生 02 - 關鍵對弈 03 - 神之一手:第 37 手 第二部分:為什麼圍棋特別難 04 - 為什麼圍棋對 AI 特別難 05 - 傳統 AI 的極限 第三部分:神經網路基礎 06 - 棋盤表示法 07 - 策略網路 08 - 價值網路 09 - 輸入特徵 10 - CNN 與圍棋 第四部分:訓練方法 11 - 監督式學習 12 - 強化學習入門 13 - 自我對弈 第五部分:MCTS 與神經網路結合 14 - MCTS 與神經網路的結合 15 - PUCT 公式詳解 第六部分:AlphaGo Zero 與後續發展 16 - AlphaGo Zero 17 - 雙頭殘差網路 18 - 從零開始訓練 19 - 分散式系統 20 - 遺產與影響 延伸學習 動畫教室 - 109 個視覺化概念動畫 技術文件 - 更多圍棋 AI 技術資源