皮皮网
皮皮网

【爱米云源码】【本地市场菜单源码】【阳盖阴指标源码】deepmindalphago源码

来源:php源码在线获取 发表时间:2024-12-29 07:10:36

1.deepmindalphagoԴ??
2.alphago什么公司研发
3.如何评价 deepmind 发表在 nature 上的 alphago zero
4.一张图看懂AlphaGo Zero
5.deepmind研发的围棋aialphago是如何下棋的?
6.AI重写排序算法,速度快70%:DeepMind AlphaDev革新计算基础,每天调用万亿次的库更新了

deepmindalphago源码

deepmindalphagoԴ??

       1、年DeepMind团队(google旗下)的AlphaGo(一个围棋的AI)以4:1战胜顶尖人类职业棋手李世石。她到底是怎么下棋的?

       AlphaGo在面对当前棋局时,她会模拟(推演棋局)N次,爱米云源码选取模拟次数最多的走法,这就是AlphaGo认为的最优走法。

       例如图中,所有没有落子的地方都是可能下子的,但在模拟中,右下那步走了%次,就选那一步了,就那么简单。后面你会发现,模拟次数最多的走法就是统计上最优的走法。

       1、啥是模拟?

       模拟就是AlphaGo自己和自己下棋,相当于棋手在脑袋中的推演,就是棋手说的计算。

       AlphaGo面对当前局面,会用某种(下面会讲)策略,自己和自己下。其中有两种策略:往后下几步(提前终止,因为AlphaGo有一定判断形势的能力);或者一直下到终局(终局形势判断相对简单,对于棋手简单,对于机器还有一定难度,但是这个问题已经基本解决)。对于棋手来说就是推演棋局。

       AlphaGo会模拟多次,不止一次。越来越多的模拟会使AlphaGo的推演越来越深(一开始就1步,后来可能是几十步),对当前局面的判断越来越准(因为她知道了后面局面变化的结果,她会追溯到前面的局面,更新对前面局面的判断),使后面的模拟越来越强(更接近于正解,她后面模拟出来的着法会越来越强)。怎么做到的?看她怎么模拟的。

       注意,这里的模拟是下棋(线上)时的模拟,后面还会有个学习时的模拟,不要混淆了。

       2、AlphaGo怎么模拟的?

       每次模拟中,AlphaGo自己和自己下。每步中由一个函数决定该下哪一步。函数中包括了以下几个方面:这个局面大概该怎么下(选点:policy net),下这步会导致什么样的局面,我赢得概率是多少(形势判断:value net 和rollout小模拟),鼓励探索没模拟过的招法。这些英文名词后面会有解释。

       模拟完一次后,AlphaGo会记住模拟到棋局,比如几步以后的棋局。并且计算这时policy,value。因为这时已经更接近终局了,这时的值会更加准确(相对于前面的模拟或局面)。AlphaGo还会用这些更准的值更新这个函数,函数值就越来越准了,所以模拟的每一步越来越接近正解(最优的下法),整个模拟越来越接近黑白双方的最优下法(主变化,principle variation),就像围棋书上的正解图一样。到此为止,你已经大概了解AlphaGo她怎么工作的了,下面只是一些细节和数学了。

       3、那个函数是啥,好神奇?

       这个函数,分为两个部分。

       Q是action value, u是bonus。Q其实就是模拟多次以后,AlphaGo计算走a这步赢的概率,其中会有对未来棋局的模拟(大模拟中的小模拟),和估计。u中包括两个部分。一方面根据局面(棋形)大概判断应该有那几步可以走,另一方面惩罚模拟过多的招法,鼓励探索其他招法,不要老模拟一步,忽略了其他更优的招法。

       4、Q(action value)具体是什么?

       Q看上去有点复杂,其实就是模拟N次以后,AlphaGo认为她模拟这步赢得平均概率。

       分母N是模拟这步棋的次数。

       分子是本地市场菜单源码每次模拟赢的概率(V)的加和。

       其中V又包括两部分,value net对形势的判断。和一个快速模拟到终局,她赢的概率。

       value net是说她看这个这个局面,就要判断赢的概率,不准往下几步想了。value net下面详细讲。

       快速模拟是说她看这个这个局面,自己和自己下完,看看黑白谁赢的概率高。快速模拟是我们这个大模拟中的一个小模拟。

       Q就是看当下(value net),也看未来(快速模拟),来决定怎么模拟(对人来说就是往哪里想,对于棋手就是思考哪些可能的着法),下棋方(模拟中下棋方黑白都是AlphaGo)下那一步赢的概率高,从而决定模拟下那一步。

       5、u(bonus)具体是啥?

       u中包括两个部分。

       分子是AlphaGo根据当前局面判断(policy net),不模拟,比如棋手根据棋形大概知道应该有哪几步可以走。

       分母是模拟到现在走当前步的累加,越大下次模拟越不会走这了。

       一句话,(Q+u)就是决定模拟中,下棋方会走(模拟)哪里。

       到此,我们大概了解了AlphaGo的两大神器:value net(形势判断:模拟中,我走这步,我赢的概率是多少)和policy net(选点:模拟中,这个局面我走那几步最强)。下面会揭开他们神秘的面纱。

       6、为什么选模拟次数最多的一步?

       根据以上的函数可知,模拟次数最多一步,其实就是在多次模拟中,AlphaGo认为那一步最可能赢的次数的累加(或平均,除以总模拟次数)。

       7、为什么要分为policy net(选点)和value net(形势判断)呢,选点和形势判断不是一个东西吗?

       确实,选点和形势判断是互相嵌套的。首先,围棋的形势判断是非常困难的。在围棋直播中我们经常看到,职业9段也不能准确判断当前局面,除非地域已经确定,没有什么可以继续战斗的地方,一般也就是接近终局(官子阶段)。即使职业棋手,选点和判断也是定性的成分偏多,定量的成分偏少。以前说中国顶级棋手古力能推演到步,已经非常强了。

       再说嵌套问题,准确的定量的选点和判断,就要计算(对于棋手是在脑子里推演,对于机器就是模拟)才行。在推演中,我选点走那步决定于,走这步后我赢的概率,而这个概率又决定于对手走那一步(我会假设对手弈出她最强的一步,对我最不利),对手走那一步决定于,她走那步后,她对形势的判断要对她最好,这又取决于我的下下步(第3步了)走哪里(对手她也会假设我会下出对她最不利的一步,自然对我最优),从而不断的嵌套,这个死结要到终局(或者接近)才能解开(终局形势判断比较简单)。所以不到终局,判断形势是非常困难的,即使职业的9段也不行。这就是围棋比象棋难的关键所在,它没有简单的形势判断的方法,而象棋有。

       要回答这个问题7还要看下面了。

       8、AlphaGo是怎么打开这个死结的?

       AlphaGo没有进行直接的形势判断,就是没有直接学习value net,而是先做一个选点(policy net)程序。选点可以认为是一个时序(走棋)的一个局部问题,就是从当前局面大概判断,有哪几步可能走,暂时不需要推演(那是模拟的工作)。棋手的选点是会推演的,这里的阳盖阴指标源码基础policy net是不推演的,前已经看到AlphaGo线上模拟中选点(Q+u)是有推演的。

       所以policy net是用在每次模拟中,搜索双方可能的着法,而最优步的判断是N次模拟的任务,policy net不管。此外policy net还用来训练value net,也就是说,value net是从policy net 来的,先有policy 才有value。

       选点(policy net)能成立吗?如果不成立,也是没用。

       9、第一神器policy net怎么工作的?

       先大概看下这个图。现在轮到黑棋下,图上的数字是AlphaGo认为黑棋应该下这步的概率。我们还发现,只有几步(2步在这个图中)的概率比较大,其他步可能性都很小。这就像职业棋手了。学围棋的人知道,初学者会觉得那里都可以走,就是policy(选点)不行,没有选择性。随着棋力增长,选择的范围在缩小。职业棋手就会锁定几个最有可能的走法,然后去推演以后的变化。

       AlphaGo通过学习,预测职业选手的着法有%的准确率。提醒一下,这还是AlphaGo一眼看上去的效果,她没开始推演(模拟)呢。而且她没预测对的着法不一定比职业棋手差。

       policy net怎么学习的,学啥?

       首先,policy net是一个模型。它的输入时当前的棋局(*的棋盘,每个位置有3种状态,黑,白,空),输出是最可能(最优)的着法,每个空位都有一个概率(可能性)。幸运的是,着法不像形势判断那么无迹可寻。我们人已经下了千年的棋。policy net先向职业选手学习,她从KGS围棋服务器,学习了万个局面的下一步怎么走。也就是说,大概职业选手怎么走,AlphaGo她已经了然于胸。学习的目的是,她不是单纯的记住这个局面,而是相似的局面也会了。当学习的局面足够多时,几乎所有局面她都会了。这种学习我们叫做监督学习(supervised learning)。以前的职业棋手的棋谱,就是她的老师(监督)。

       AlphaGo强的原因之一是policy net这个模型是通过深度学习(deep learning)完成的。深度学习是近几年兴起的模拟人脑的机器学习方法。它使AlphaGo学习到的policy更加准确。以前的AI都没有那么强的学习能力。

       更加厉害的是,AlphaGo从职业棋手学完后,感觉没什么可以从职业棋手学的了。为了超越老师和自己,独孤求败的她只能自己左右互搏,通过自己下自己,找到更好的policy。比如说,她从监督学习学到了一个policy,P0。

       AlphaGo会例外做一个模型P1。P1一开始和P0一样(模型参数相同)。稍微改变P1的参数,然后让P1和P0下,比如,黑用P1,白用P0选点,直到下完(终局)。模拟多次后,如果P1比P0强(赢的多),则P1就用新参数,否则,重新再原来基础上改变参数。我们会得到比P0强一点点的P1。注意,python语法分析源码选点是按照policy的概率的,所以每次模拟是不同的。多次学习后AlphaGo会不断超越自己,越来越强。这种学习我们叫做增强学习(reinforcement learning)。它没有直接的监督信息,而是把模型发在环境中(下棋),通过和环境的互相作用,环境对模型完成任务的好坏给于反馈(赢棋还是输),从而模型改变自己(更新参数),更好的完成任务(赢棋)。增强学习后,AlphaGo在%的棋局中战胜以前的自己。

       最后,AlphaGo还有一个mini的policy net,叫rollout。它是用来上面所说的模拟中,快速模拟的终局的。它的输入比正常policy net小,它的模型也小,所以它的耗时是2微妙,而一个policy要3毫秒。它没有policy准,但是它快。

       总结一下policy。它是用来预测下一步大概该走哪里。它使用了深度学习,监督学习,增强学习等方法。它主要用于每次模拟中的bonus的先验(我大概该怎么走),和value net的学习(后面的重点)。

       如果单纯用policy预测的着法来作为最优着法,不通过value net的计算和上面说的模拟,对职业棋手那是不行的。但是,单纯用policy预测已经足够打败以前的围棋AI(大约有业余5段实力)了。这说明了上面3种学习方法的强大威力。

       AlphaGo就看了一眼,还没有推演,你们就败了。policy net为解开那个死结走出了第一步,下面我们就讲讲这第二个神器:value net。

       、第二神器value net怎么工作的?

       前面说了,形势判断是什么无迹可寻,就连职业9段也做不到。有了policy net,整个世界都不一样了。AlphaGo她的灵魂核心就在下面这个公式里。

       V*(s)=Vp*(s)约等于Vp(s)。

       s是棋盘的状态,就是前面说的*,每个交叉3种状态。

       V是对这个状态的评估,就是说黑赢的概率是多少。

       V*是这个评估的真值。

       p*是正解(产生正解的policy)

       p是AlphaGo前面所说学到的最强的policy net。

       如果模拟以后每步都是正解p*,其结果就是V*,这解释了等号。

       如果你知道V*这个函数,在当前局面,你要对走下一步(围棋平均有种可能性)后的状态s进行评估,选最大的V*走就行。围棋就完美解决了。但是,前面说了,V*不存在。同样p*也不存在(理论上存在,实际因为搜索空间太大,计算量太大找不到。在5*5的棋盘中下棋可以做到)。

       AlphaGo天才般的用最强poilicy,p来近似正解p*,从而可以用p的模拟Vp来近似V*。即使Vp只是一个近似,但已经比现在的职业9段好了。想想她的p是从职业选手的着法学来的,就是你能想到的棋她都想到了。而且她还在不断使的p更准。顶尖职业棋手就想以后的-步,还会出错(错觉)。AlphaGo是模拟到终局,还极少出错。天哪,这人还怎么下。

       围棋问题实际是一个树搜索的问题,当前局面是树根,树根长出分支来(下步有多少可能性,默认扫描包源码大全棋盘上的空处都是可能的),这是树的广度,树不断生长(推演,模拟),直到叶子节点(终局,或者后面的局面)。树根到叶子,分了多少次枝(推演的步数)是树的深度。树的平均广度,深度越大,搜索越难,要的计算越多。围棋平均广度是,深度,象棋平均广度是,深度。如果要遍历围棋树,要搜索的次方,是不实际的。这也是围棋比象棋复杂的多的原因之一。但更重要的原因前面讲了:是象棋有比较简单的手工可以做出的value函数。比如,吃王(将)得正无穷分,吃车得分,等等。年打败当时国际象棋世界冠军的DeepBlue就是人手工设计的value。而围棋的value比象棋难太多了。手工根本没法搞。又只能靠深度学习了。

       在讲value的原理前,先看看定性看看value的结果。如图,这是AlphaGo用value net预测的走下一步,她赢的概率。空的地方都被蓝色标示了,越深说明AlphaGo赢的概率越高。这和我们学的棋理是相符的,在没有战斗时,1,2线(靠边的地方)和中间的概率都低,因为它们效率不高。而且大多数地方的概率都接近%。所以说赢棋难,输棋也很难。这当然排除双方激烈战斗的情况。

       这里讲讲怎么通过policy net 得到value net。有了policy,value就不是那么难以捉摸了,死结打开了。AlphaGo可以模拟(自己和自己下,黑白都用最强的policy),直到终局。注意,这里的模拟和最初说的模拟有点不同。最初的模拟是AlphaGo在下棋(线上)中用的,用来预测。这里的模拟是她还在学习(线下)呢。终局时V*(谁赢)就比较容易判断了。当然,对机器来说也不是那么容易的,但相对于中局来说是天渊之别。

       value net也是一个监督的深度学习的模型。多次的模拟的结果(谁赢)为它提供监督信息。它的模型结构和policy net相似,但是学的目标不同。policy是下步走哪里,value是走这后赢的概率。

       总结一下,value net预测下一走这后,赢的概率。本身无法得到。但是通过用最强policy来近似正解,该policy的模拟来近似主变化(就围棋书上那个,假设书上是对的),模拟的结果来近似准确的形势判断V*。value net用监督的深度学习去学模拟的得到的结果。value net主要用于模拟(在线,下棋的时候)时,计算Q值,就是平均的形势判断。

       再回顾一下模拟,模拟的每一步是兼顾:模拟到现在平均的形势判断value net,快速rollout模拟到终局的形势判断,根据当前形势的选点policy,和惩罚过多的模拟同一个下法(鼓励探索)等方面。经过多次模拟,树会搜索的越来越广,越来越深。由于其回溯的机制,Q值越来越准,下面的搜索会越来越强。因为每次的Q值,都是当前模拟认为的最优(排除鼓励探索,多次后会抵消),模拟最多的下法(树分支)就是整个模拟中累积认为最优的下法。

       到此为止,AlphaGo她神秘的面纱已经揭开。她的基本框架见下图。下棋时的线上过程是图中红箭头。线下的准备工作(学习过程)是蓝箭头。。再串一下。AlphaGo下棋(线上)靠模拟,每次模拟要选下那一步,不是简单的选点policy就完了,而是要参考以前模拟的形势判断,包括:value net和快速模拟(小模拟)到终局,鼓励探索,policy(先验),就是(Q+u),它比单纯的policy准。她选择模拟最多的下法(就是平均最优)。这是线上,下着棋了。之前(线下),她要训练好policy模型,rollout模型和value 模型。其中,policy,rollout可以从棋谱,和自己下棋中学到。value可以从用学好的policy下棋的模拟结果监督学到。从而完美解决value学不到的问题和policy和value互相嵌套的死结。从棋谱直接学value net现在还不行。

       、AlphaGo用到哪些技术?

       AlphaGo在树搜索的框架下使用了深度学习,监督学习和增强学习等方法。

       以前最强的围棋AI使用蒙特卡洛树搜索的方法。蒙特卡洛算法通过某种实验的方法,等到一个随机变量的估计,从而得到一个问题的解。这种实验可以是计算机的模拟。让我们看看蒙特卡洛树搜索怎么模拟的。算法会找两个围棋傻子(计算机),他们只知道那里可以下棋(空白处,和非打劫刚提子处),他们最终下到终局。好了,这就可以判断谁赢了。算法就通过模拟M(MN)盘,看黑赢的概率。可以看到这明显的不合理。因为每步是乱下的。有些棋根本就不可能。即使如此,这个算法可以达到业余5段左右水平。

       AlphaGo可不是乱下,她是学了职业棋手着法的。所以AlphaGo的搜索叫beam search(只搜索几条线,而不是扫一片)。前面也可以看到AlphaGo认为的可能着法就几种可能性,而不是随机的种。这就是从的次方到几()的n(n,可以提前终止搜索,因为有value net)次方,的计算量降低。虽然AlphaGo每次模拟的时间更长(因为要深度模型的预测policy和value,不是乱下),但是AlphaGo的模拟次数可以更少,是蒙特卡洛树搜索的1/。就是说AlphaGo的搜索更有目的性了,她大概知道该走哪里。解说说她下棋更像人了。我会说她下棋更像职业棋手,甚至超过职业棋手。线下的学习使得她的行为(模拟)有了极强的目的性,从而完成最终目标(赢棋)。

       、什么是打劫?

       打劫,是指黑白双方都把对方的棋子围住,这种局面下,如果轮白下,可以吃掉一个黑子;如果轮黑下,同样可以吃掉一个白子。因为如此往复就形成循环无解,所以围棋禁止同形重复。根据规则规定提一子后,对方在可以回提的情况下不能马上回提,要先在别处下一着,待对方应一手之后再回提。如图中的情况:

       打劫因为反复走同一个点,会使搜索树的深度加大,而且因为其他位置劫才会影响劫的输赢,劫才之间又相互影响,有可能打劫中又产生新的劫。总之,打劫规则会使围棋的复杂度加大。

       因为前两局棋没有下出打劫,有人会怀疑DeepMind和李世石有不打劫协议。在后面的棋局中,AlphaGo确实下出了主动打劫。而且从算法层面看,打劫也不会是她的模拟框架崩溃(可能会有一些小麻烦)。

       、遇强则强,遇弱则弱?

       AlphaGo的表现似乎是遇强则强,遇弱则弱。这可能是由于她的学习监督信息决定的。policy和value学习时,和rollout模拟时,最后的结果是谁赢(的概率),而不是谁赢多少(赢几目)。所以在AlphaGo领先时(几乎已经是常态了),她不会下出过分的棋,她只要保证最后赢就行了,而不是像人一样要赢的多,赢的漂亮。即使有杀大龙(一大块棋)的机会,她也不一定杀,而是走温和的棋,让你无疾而终。估计只有在AlphaGo判断她大大落后的时候,她才会冒险走过分的棋(这好像不常见)。

       、AlphaGo下棋为什么花钱?

       AlphaGo有单机版,多机(分布式)。分布式明显比单机强。去年的分布式有个搜索线程,个CPU,个GPU(显卡)。和李世石下棋时可能更多。这么多机器的运作和维护就是烧钱。

       、AlphaGo有漏洞吗?

       AlphaGo解决的是一个树搜索问题,并不是遍历所有着法的可能性,她的着法只是接近正解,不是一定正解。

       最简单的人战胜AlphaGo的方法就是改规则,比如扩大棋盘。人类能比较简单的适应,搜索空间增大,AlphaGo不一定能适应。

       就现有状况来说,棋手可以主要攻击AlphaGo模拟中的着法选择函数a。比如尽量下全局互相牵扯的棋(多劫,多块死活),就是尽量是中盘局面复杂,不要搞一道本(一条路走到底)局部的着法,当然,这对职业选手也不简单。

       、AlphaGo有哪些技术突破,使她能战胜人类顶尖棋手?

       ⑴继承了蒙特卡洛树搜索的框架进行模拟。

       ⑵在学习policy中使用了监督学习,有效的利用现有的棋手的棋谱,学到了他们的选点策略。

       ⑶在学习policy中使用了增强学习,从左右互搏中提高自己。

       ⑷利用policy net(选点模型)近似正解,用policy net的对弈的结果模拟正解对弈的结果,即正确的形势判断,从而打破形势判断和选点相互嵌套的死结。就是先学policy,再学value。

       ⑸在学习policy, value, rollout中使用深度学习模型。深度学习有非常强的学习能力。使得选点和形势判断前所未有的准(对比蒙特卡洛是随机选点,现在是职业棋手帮她选点了)。因为在每次模拟中用到了这两个准,使得在树搜索(就是推演)的过程更有目的性(树大量减枝,只模拟比较优良的下法)

       ⑹当然还有机器一贯的优势,不疲劳,不受心理情绪影响,不会错的记忆力等等。

alphago什么公司研发

       AlphaGo是由谷歌旗下的DeepMind公司研发

       DeepMind是一家专注于机器学习和人工智能的独立公司,成立于英国伦敦,后被谷歌收购并成为其旗下的一部分。AlphaGo是该公司研发的一款围棋人工智能程序,具有极高的水平,曾战胜多位围棋世界冠军。该程序的研发成功对于人工智能领域具有里程碑意义,展现出了人工智能在特定领域超越人类顶尖水平的可能。AlphaGo的研发和应用展示了人工智能领域的持续发展和进步。

       DeepMind公司一直致力于推动人工智能的进步和创新。AlphaGo的研发团队包括了众多顶尖的计算机科学家和工程师,他们通过不断的研究和实验,成功开发出这款具有强大智能水平的人工智能程序。AlphaGo的成功不仅在于其强大的技术能力,还在于其在策略规划、自我学习和决策制定方面的创新性。这一技术上的巨大突破预示着未来人工智能可能会在更多领域展现其潜力。

       总的来说,AlphaGo是由谷歌旗下的DeepMind公司研发的一款围棋人工智能程序,其研发成功是人工智能领域的一次重大突破。DeepMind公司在人工智能领域的持续研究和创新,为我们揭示了人工智能的巨大潜力和未来发展前景。

如何评价 deepmind 发表在 nature 上的 alphago zero

       AlphaGo Zero是谷歌下属公司Deepmind的新版程序。

       ä»Žç©ºç™½çŠ¶æ€å­¦èµ·ï¼Œåœ¨æ— ä»»ä½•äººç±»è¾“入的条件下,AlphaGo Zero能够迅速自学围棋,并以:0的战绩击败“前辈”。

       å‘展历史

       ç¼–辑

       å¹´æœˆæ—¥å‡Œæ™¨ï¼Œåœ¨å›½é™…学术期刊《自然》(Nature)上发表的一篇研究论文中,谷歌下属公司Deepmind报告新版程序AlphaGo Zero:从空白状态学起,在无任何人类输入的条件下,它能够迅速自学围棋,并以:0的战绩击败“前辈”。Deepmind的论文一发表,TPU的销量就可能要大增了。其:0战绩有“造”真嫌疑。[1] 它经过3天的训练便以:0的战绩击败了他的哥哥AlphoGo Lee,经过天的训练便击败了它的另一个哥哥AlphoGo Master[1]

       å·¥ä½œåŽŸç†

       ç¼–辑

       æŠ›å¼ƒäººç±»ç»éªŒâ€å’Œâ€œè‡ªæˆ‘训练”并非AlphaGo Zero最大的亮点,其关键在于采用了新的reinforcement learning(强化学习的算法),并给该算法带了新的发展。[1]

       æˆ˜ç»©

       ç¼–辑

       AlphaGo Zero仅拥有4个TPU,零人类经验,其自我训练的时间仅为3天,自我对弈的棋局数量为万盘。但它以:0的战绩击败前辈。[1]

一张图看懂AlphaGo Zero

       AI前线导语:不久前,谷歌DeepMind发布了AlphaGo的进阶版本AlphaGo Zero。相比此前胜0败战绩的AlphaGo,AlphaGo Zero在复杂多变的环境下,使用4TPUs替代了TPUs,且神经网络数量由两条变为一条。那么,AlphaGo Zero的工作原理如何解释?其实,一张图就能说明。

       上图展示了AlphaGo Zero如何结合深度学习和蒙特卡洛树搜索,使其具备强大的强化学习算法能力。

       简而言之,AlphaGo Zero的训练分为三个同时进行的阶段:自我对战、再训练网络和评估网络。

       在自我对战阶段,AlphaGo Zero自我完成对战次,每变动一次棋局,博弈、搜索可能性和胜出者的信息都会被存储。

       在训练网络阶段,神经网络的权值得到优化。AlphaGo Zero从万局博弈中选取个移动位置作为样品,对这些位置的神经网络进行训练。通过损失函数,比较神经网络预测与搜索可能性和实际胜出方的信息。每完成一千次训练循环,对神经网络进行一次评估。

       在评估网络阶段,测试新的神经网络是否得到优化。博弈双方使用各自的神经网络评估叶节点,并结合蒙特卡洛树搜索选择下一步棋路。

       AlphaGo Zero在没有任何人类专业知识和数据输入的情况下,完成神经网络的自学过程。

       AlphaGo Zero的进阶之路

       目前,AI的目标之一是克服人类专业知识资源昂贵且可靠性具有不确定性的难题。AlphaGo Zero的出世使人类离这个目标更近了一些。相比AlphaGo,它不需要经过人类对战训练,直接从随机对战开始,通过自身对战学会博弈。

       AlphaGo Zero没有被输入围棋比赛知识,仅了解基本游戏规则,却在3天内超越曾打败世界围棋冠军李世石的AlphaGo Lee,在天内超越曾战胜全球顶尖专业围棋选手和柯洁的AlphaGo Master,天后超越另一版本的AlphaGo,成为迄今为止最强大的AlphaGo。

       AlphaGo Zero的性能优于之前版本,结合强化学习方法,成为自身的“老师”。系统通过对围棋游戏一无所知的神经网络,结合强大的搜索算法,自学博弈。在对战中,神经网络可以感知并预测对手的下一步动作。

       AlphaGo Zero之所以更加强大,是因为不受人类知识限制,从自身学习并发明战略。

       AlphaGo Zero在数百万次对战中,不断学习,几天内掌握人类数千年智慧。不仅如此,还发现新知识,在对战中创造策略和创新招数。

       AlphaGo Zero的创新性“举动”,证明了AI可以超越人类智慧,帮助解决困难和挑战。AI技术在蛋白质折叠、能源消耗减少、新材料发现等领域若得到突破性应用,将对社会产生巨大积极影响。

       AI前线总结,AlphaGo Zero通过结合深度学习和蒙特卡洛树搜索,实现强化学习,使AI自我学习和发明战略,超越人类智慧,为社会带来积极影响。

deepmind研发的围棋aialphago是如何下棋的?

       AlphaGo,DeepMind研发的围棋AI,其下棋策略主要依托蒙特卡罗树搜索(MCTS)和深度学习技术。MCTS是一种启发式搜索算法,它由当前局面开始,尝试看起来可靠的行动,直到达到一定的步数后停止。通过评估后续局面的优劣,算法选择最优行动,实现“手下一子,心中三步”的策略。

       在MCTS中,“看起来可靠”的行动和局面优劣的评估由策略函数(policy function)和局面函数(value function)来量化。策略函数衡量在某局面下执行某行动的价值,局面函数衡量某一局面的价值。通过机器学习和大量数据,AlphaGo能够自动找到特征并拟合出估值函数,用以评估局面的优劣。深度学习技术在此扮演关键角色,帮助AlphaGo量化棋盘上的复杂局面。

       MCTS算法通过反复模拟和采样对局过程来探索状态空间,其特点包括易于并行、可随时停止、引入随机性以减少估值错误带来的负面影响,并在随机探索过程中通过强化学习调整估值函数,使算法不断进化。

       AlphaGo结合了先进的搜索算法、机器学习(特别是强化学习)和深度神经网络三大技术。MCTS、RL和DNN在这套系统中相辅相成,MCTS和RL提供了自学和并行计算的能力,而DNN则用于量化评估围棋局面。AlphaGo的成功证明了将这些技术协同工作的重要性。

       MCTS和强化学习(RL)的应用不仅局限于围棋,还可以扩展到其他博弈和游戏场景。通过MCTS和RL,算法可以学习并优化策略,适应复杂环境和动态对手。

AI重写排序算法,速度快%:DeepMind AlphaDev革新计算基础,每天调用万亿次的库更新了

       通过交换和复制移动,AlphaDev 跳过了一个步骤,以一种看似错误,但实际上是捷径的方式连接项目。这种前所未见、违反直觉的思想不禁让人回忆起 年那个春天。

       七年前,AlphaGo 在围棋上击败人类世界冠军,如今 AI 又在编程上给我们上了一课。

       今天凌晨,Google DeepMind CEO 哈萨比斯的两句话引爆了计算机领域:「AlphaDev 发现了一种全新且更快的排序算法,我们已将其开源到主要 C++ 库中供开发人员使用。这只是 AI 提升代码效率进步的开始。」

       这一次,Google DeepMind 的全新强化学习系统 AlphaDev 发现了一种比以往更快的哈希算法,这是计算机科学领域中的一种基本算法,AI 的成果现已被纳入 LLVM 标准 C++ 库 Abseil 并开源。

       AlphaDev 的成果有多重要?Google DeepMind 的主要作者之一,研究科学家 Daniel J. Mankowitz 表示:「我们估计它发现的排序和哈希算法每天会在全世界被调用数万亿次。」

       AI 似乎从算法层面加速了世界的运转。

       AlphaDev 改进了 LLVM libc++ 排序库,对于较短的序列,排序库的速度提高了 %,对于超过 万个元素的序列,速度也能提高约 1.7%。Google DeepMind 表示,这是十多年来排序库这部分的第一次变化。AI 不仅可以帮人写代码,而且可以帮我们写出更好的代码。

       这些算法将改变计算基础,数字社会推动了对计算和能源日益增长的需求。过去五十年里,数字时代依靠硬件的改进来跟上需求。但是随着微芯片接近其物理极限,改进在其上运行的代码变得至关重要。对于每天运行数万亿次的代码所包含的算法来说,这尤其重要。Google DeepMind 的研究就是因此产生的,相关论文已发表在《Nature》上,AlphaDev 是一个 AI 系统,它使用强化学习来发现算法,甚至超越了科学家和工程师们几十年来打磨出来的成果。

       论文地址: nature.com/articles/s...

       总体来说,AlphaDev 发现了一种更快的排序算法。这将改变人类编程计算机的方式,对日益数字化的社会将产生重大影响。通过在主要的 C++ 库中开源新排序算法,全球数百万开发人员和公司现在可以在云计算、在线购物和供应链管理等各行各业的人工智能应用中使用它。这是十多年来对排序库的首次更改,也是通过强化学习设计的算法首次被添加到该库中。这被视为使用人工智能逐步优化世界代码的重要里程碑。

       排序算法是一种按照特定顺序对某些任务进行排列的方法。这些算法由来已久,并得到了很好的演进。随着 AlphaDev 的发现,人们现在有了更快的排序算法,这些算法每天都在全世界被调用数万亿次。排序算法应用范围广泛,从在线搜索结果、社交帖子排序,到计算机以及手机上的各种数据处理,都离不开排序算法。利用 AI 生成更好的算法将改变人类编程计算机的方式,对日益数字化的社会将产生重大影响。

       将一系列未排序的数字输入到算法中,输出已排序的数字。

       经过计算机科学家和程序员们几十年的研究,目前的排序算法已经非常高效,以至于很难再实现进一步的改进,这有点类似于试图找到一种新的节省电力或更高效的数学方法,而这些算法也是计算机科学的基石。

       AlphaDev 从头开始探索更快的算法,而不是基于现有算法之上,除此以外,AlphaDev 还能用于寻找大多数人所不涉足的领域:计算机汇编指令。

       汇编指令可用于创建计算机执行的二进制代码。开发人员使用诸如 C++ 之类的高级语言编写代码,但必须将其转换为计算机能够理解的「低级」汇编指令。

       Google DeepMind 认为这个层次存在许多改进的空间,而这些改进在更高级的编程语言中可能很难被发现。在这个层次上,计算机的存储和操作更加灵活,这意味着存在更多潜在的改进可能性,这些改进可能对速度和能源使用产生更大的影响。

       AlphaDev 基于 Google DeepMind 此前的一项成果:在围棋、国际象棋和象棋等游戏中打败世界冠军的强化学习模型 AlphaZero。而 AlphaDev 展示了这个模型如何从游戏转移到科学挑战,以及从模拟到现实世界的应用。

       为了训练 AlphaDev 发现新的算法,团队将排序变成了一个单人的「组装游戏」。在每个回合中,AlphaDev 观察它所产生的算法和 CPU 中包含的信息,然后通过选择一条指令添加到算法中来下一步棋。

       汇编游戏是非常困难的,因为 AlphaDev 必须在大量可能的指令组合中进行高效搜索,以找到一个可以排序的算法,并且比当前的最佳算法更快。指令的可能组合数量类似于宇宙中的粒子数量,或者国际象棋(^ 局)和围棋(^ 局)中可能的动作组合的数量,而一个错误的动作就可以使整个算法失效。

       AlphaDev 发现了新的排序算法,这些算法导致 LLVM libc++ 排序库得到改进:对于较短的序列,排序库的速度提高了 %,对于超过 万个元素的序列,速度提高了约 1.7%。 Google DeepMind 团队更专注于改进三到五个元素的短序列排序算法,这些算法通常作为更大排序函数的一部分被多次调用,改进这些算法可以提高对任意数量项目进行排序的整体速度。

       为了让新的排序算法对人们更有用,团队对算法进行了逆向工程并将它们翻译成 C++,这是开发人员使用的最流行的编程语言之一。这些算法已在 LLVM libc++ 标准排序库中提供,被全球数百万开发人员和公司使用。

       AlphaDev 不仅发现了更快的算法,而且还发现了新的方法。它的排序算法包含新的指令序列,每次应用时都会节省一条指令 —— 这显然会产生巨大的影响,因为这些算法每天都要使用数万亿次。他们把这些称为「AlphaDev 交换和复制动作」。这表明 AlphaDev 有能力发掘出原创性的解决方案,并挑战人类对如何改进计算机科学算法的思考方式。

       AlphaDev 的发现,例如交换和复制动作,不仅表明它可以改进算法,还可以找到新的解决方案。这些发现或许能够激励研究人员和开发人员创建可以进一步优化基础算法的技术和方法,以创建更强大和可持续的计算生态系统。

相关栏目:热点