CGICGI Logo |
原作者 |
- 王永樂、何庭築(HappyGo)
- 廖挺富、何庭築(Amigo)
- 吳廸融、廖挺富、陳冠文、施仲晉、藍立呈、葉騉豪(CGI 1.0)
- 吳廸融、藍立呈、陳冠文、吳宏君、黃勁博、廖挺富(CGI 2.0)
- 吳廸融、陳冠文、吳宏君、賴東億、吳慈仁等(CGI 3.0)
- 吳毅成(專案指導人、指導教授)[1]
|
---|
開發者 | 國立交通大學資訊工程系電腦遊戲與智慧實驗室 |
---|
类型 | 圍棋軟體 |
---|
网站 | |
---|
CGI(英語:CGI Go Intelligence[2][1])是由國立交通大學資訊工程學系吳毅成教授所帶領的團隊所開發的圍棋軟體。
簡介
從2008年開始發展,一開始名稱為HappyGo,之後大幅改寫時改名為Amigo,但因Amigo與其他圍棋軟體名稱衝突,在後來改名時以實驗室的名字為基礎,改名為CGI並使用至今[1]。其中CGI為CGI Go Intelligence的递归缩写,指的是「CGI實驗室圍棋智慧」[2][1]。
於2017年年底與棋城合作,推出業餘七段棋力的對弈服務[3]。
演進
HappyGo
2008年到2011年的版本,以作者王永樂的暱稱Happy為名,僅支援9x9的棋盤[1]:
Amigo
2012年到2014年的版本,這個版本將蒙特卡洛树搜索(MCTS)的平行運算框架化,以便於用在其他軟體上[1]。這個版本雖然可以進行19x19棋盤對弈,但只是實做而沒有最佳化,所以非常的弱[1]:
- 實做蒙特卡洛树搜索(MCTS)的平行運算框架。
- 支援平行運算。
CGI 1.0
2015年一月到十二月的版本,除了採用了蒙特卡洛树搜索(MCTS)外,還包括了MM algorithm[2][1]:
- 利用很多人為定義的特性進行學習。
- 利用progressive bias、progressive widening以及動態貼目改善蒙特卡洛树搜索(MCTS)。
CGI 2.0
2015年十二月到2016年八月的版本,這個版本引入了深度卷积神经网络(DCNN)使得棋力大幅增強。在引入的初期採用Detlef Schmicker所提供的資料,在2016一月後採用自己訓練的資料[2][1]:
- 使用監督式學習策略神經網路(英語:Supervised Learning policy network),這個版本還沒有使用强化学习策略策略神經網路(英語:Reinforcement Learning policy network)以及價值神經網路(英語:Value Network)。
CGI 3.0
2016年八月後的版本,在這個版本因為AlphaGo論文的出現而有了巨大的改動,使得實力大幅進步,能在不讓子的對弈中與職業棋士較勁[2][1]:
- 引入監督式學習策略神經網路(英語:Supervised Learning policy network)
- 引入強化學習策略神經網路(英語:Reinforcement Learning policy network)
- 引入價值網路(英語:Value Network)[4]
- 改善蒙特卡洛树搜索(MCTS)內的快速走子(英語:Rollout)
- 支援分散式計算
CGI 4.0
2018年十二月的版本,這個版本能提供四十個穩定棋力等級之圍棋程式,最高棋力與ELF OpenGo棋力相當[5]。
成績
HappyGo
對電腦
Amigo
對電腦
CGI 1.0
對電腦
對人
賽事皆為IEEE CIG 2015:
CGI 2.0
對電腦
對人
賽事皆為IEEE WCCI 2016:
黑 |
白 |
讓子 |
貼目 |
結果 |
備註
|
CGI |
周平強(職業六段) |
2 |
0.5 |
W+Res[9] |
七月24日
|
CGI |
周俊勳(職業九段) |
2 |
0.5 |
W+Res[9][2][1] |
|
蔡尚榮(業餘六段) |
CGI |
2 |
0.5 |
B+Res[9] |
七月25日
|
張盛舒(業餘六段) |
CGI |
2 |
0.5 |
B+Res[9] |
七月25日
|
CGI |
周平強(職業六段) |
2 |
0.5 |
B+Res[9] |
七月25日
|
蔡尚榮(業餘6段) |
CGI |
0 |
0.5 |
W+Res[9] |
七月26日
|
張盛舒(業餘6段) |
CGI |
2 |
0.5 |
B+Res[9] |
七月26日
|
CGOS
在CGOS上,CGI1407_1_475_7c
的BayesElo為3265分[10]。
CGI 3.0
對電腦
對人
賽事為FUZZ-IEEE 2017:
CGOS
在CGOS上,CGI1900_4c
的BayesElo為3513分[10]。
參考文獻
相關連結
外部連結