投资要点:
1.事件
Google机器人AlphaGo与韩国选手李世石九段进行围棋对决,五局围棋对决将分别于于3月9日、10日、12日、13日和15日在首尔四季酒店举行。比赛用时为每方两小时,一分钟读秒3次,规则采用中国围棋规则,获胜者将获得100万美元。
3月9日15:34分,谷歌人工智能AlphaGo与韩国世界冠军棋手李世石的围棋之战首局落定,李世石投子认输,AlphaGo首战告捷。
2.我们的分析与判断
作为人工智能首次战胜世界冠军这一里程碑事件,AlphaGo全程表现的极为精彩,整个过程可以用“精确把握,强弱分明,相机而动”来概括:
1、开局阶段,李世石不走寻常路试图打乱对手思维,但AlphaGo也表现不俗,展现了良好的计算能力和时间控制力。
2、AlphaGo没有人类棋手担心出错的概念,相反却能把握对手的性格,抓住机会成功逆袭,实现棋局逆转,堪称真正的“石佛”。
3、AlphaGo实现了人工输入的棋谱模式中没有的走法,展示了强大的自我学习能力。
(一)人工智能里程碑事件,代替人类未来可期
1,AlphaGO已经具备人类思考能力
围棋领域计算机与人类的对决一直是人工智能挑战的热点和难点。一方面,在围棋的可能的走法上比同类别的对弈类比赛--比如国际象棋--要多很多。同样的一局比赛,国际象棋平均每一步有35种可能性,2155种局面,而围棋有19*19个节点,3361种局面,远远多于国际象棋的可能。另一方面,单纯看围棋的某一步走法,并没有绝对判断其好坏的标准和评估体系,必须综合起来看才能看出这一步的优劣。
AlphaGo不同于以往的大型计算型机器人,具有真正的人工智能,使用了深度学习(Deep Learning)而不是暴力穷举。其能够在每一步走法和全局之间进行平衡,“思考”方式更接近人类。
AlphaGo采用深度神经网络构架和蒙特卡洛树算法(MCTS)相结合,还包含监督学习和自我训练的多个阶段的训练。其中深度神经网络构架包含策略网络(policy network)和价值网络(value network)。策略网络作为训练流水线的第一步,主要是用于预测下一步的可能性,价值网络则是通过不同的棋子分布状况带来的结果来巩固和调整策略网络。