戴钰幽桔是怎么死的

&又是一个开学日,天下着雨,似乎在为辛苦的中国学生流泪。同学们拖着大包小包的用品又回到了这炼狱般的地方,当然我也不例外,但她我心里更多的是期盼,期盼能回到高一启蒙班主任手里(虽然那个班主任很凶,人称法西斯,但在熙心中只有这样的老师才是合格的。而且上个学期那个凌乱的班已经让乖乖熙变坏了,乖乖熙可是有个伟大的梦想的,岂能然乱班搅了)。
前方一百米处人那么多,叽叽喳喳跟小麻雀一样的地方肯定有我想要的东西,一想到这里,我不顾大雨滂沱,以一百米充次的速度冲去,搜索良久,终于找到了,可是,好失落啊,不在想要去的班级,居然只有一墙之差T^T。
怀着小小的失落感前往那个不喜欢的班级。班主任未到,但已经有同学到了。“翠花,小苹果,你们也在这哦,耶,有同伴了!”前一秒还很失落,这一秒又和小麻雀一样happy起来。
班主任驾到,我又像只松鼠一样蹦哒着去报名领寝室号了。当然,在看到整张名单上认识的人不下十个,尤其是男生不下七个,更加happy了。
& & & &终于,什么都弄完了,排座位可是件重
某高校高二学生,尖子生里的普通一员,最爱打篮球,但这身高是一个硬伤,假若身高再高点,可以迷倒一片女生,没办法,也就熙这样的小迷糊看上了他,被迷得不要不要的,官方外号红毛,毛哥;熙口中外号七彩毛(是什么颜色就要看熙的心情了),红毛叔叔(灵感来自于熙的小妹妹),帅毛,猴子,美猴王……物理超级好
同桌扇轩,因为发型像刺猬,被熙称作刺猬(这个外号可是超不爽的,但对熙有哥哥情怀也就忍了),在无法求助于君墨时,是熙的唯一的靠山,曾经是大学霸,但被熙和君墨带偏了,再也回不去了,是个十足的愤青,最看不惯班主任的作风。是两人的好友。
好友一号翰,外号白雪(来自《丁丁历险记》里的那只小狗)性格有点贱,但有些地方和熙很像,和熙是好哥们,喜欢前女友,人不错。
好友二号海,外号楼纳尔多,是个刺头,红毛这个外号就来自他口,是熙唯一一个高中三年同班的同学,人很好,体育很好,很活跃。
好友三号寅,交集不多,无法描写
好友四号浩,外号小学生,经常问熙要零食吃,还说熙是他的再生父母,乱七八糟程度可与熙媲美,要不是和熙以“母子”相称,他恐怕是君墨思维里最大的情敌。
大家都说我的高中生活自从有一个人闯进之后,就如同青春偶像剧,我是女主,他是男主,虽然,并没有像电视剧和小说一样,男主女主在一起,但也还是很美好,所以想用小说的形式写下来。女主名熙,男主名君墨。
参加了成人礼的我也应该算是半个成人了。然而,属于半个成人的我却有了不属于我这个年纪的第一次怦然,我不知道为什么。&
&那人是我的后桌,平时关系不错,我有问题去问他,他也欣然的帮我解答,或许是这样,慢慢地我就被自己弄糊涂了,再加上同学们在一旁的“煽风点火”。渐渐地,我发现我好像看上他了:当他帮其他女生解答时,我心里就不是滋味;当他和他后后桌传纸条,叫他后面的女生帮他传一下时,我感觉怪怪的...
&虽然嘴巴上一直在否认自己对他的感情,也对同学们叫的那一声“X嫂”表现出生气的样子,但我自己心里清楚,对于他,在我心中的地位与以前的其他的男玩伴不一样,我并没有把他当做哥们儿,虽然以前并未经历过情事,但我知道,像我这样的永远只爱自己的人来说,对一个外人,而且是一个异性这样,绝对不正常。
&我和几个要好的朋友说起过这件事,虽然他们都鼓励我去大胆的表白,但一向胆大的我在
现在最火的新闻应该非美国找到另一个“地球”了吧。现在的人类一直幻想着去另一个星球活命,但从来不会想到要好好保护我们现在的这个地球,这真是一个莫大的悲哀啊!既然在浩瀚的宇宙中有一个与地球很像的星球,那在那个星球上就能保证没有其他像人类一样的生物吗?或许他们很“善良”,会同意地球人移居,与他们共享一个星球;或许他们很残暴,把地球人吃了也未可知呀;又或许他们很爱他们的星球,知道地球人去他们的星球只是因为地球被地球人自己毁了,一点不留情的把地球人赶出去或交给宇宙法庭审判...
再说了“另一个地球”距离地球1400光年,现在飞船虽然能飞一、二十年,但速度不快,目前大都以火箭化学燃料做姿态控制或变轨,效率很低,飞久了燃料耗尽只能靠初始轨道飞行,容易受沿途大型天体引力干扰,海盗号飞了几十年才出太阳系,出去后基本就控制不住了,只能祈祷他自己平安,飞千年难以想象。1400光年就是光速行驶1400年的距离,现在飞船与光速比较差异太大,所以1400光年的距离需要飞船飞几十万年吧。
其实地球被地球人毁得不是很厉害,没有到无
&转眼初中毕业已有一年多了,屈辱初三已基本忘得差不多了,但只记得一句话“二中的只能看看菜市场,富中的就可以看到美丽的母亲河
---富春江。”对,没错,二中的是只能看到热闹的菜市场,但富中的有什么了不起的,现在的富春江早已被污染的看不出原来像《富春山居图》上画的那样美了,但愿你们没被污染到。
今天离2017年高考成绩公布还有不到两年的时间,在这不到两年的时间里,我不会放弃,我要让说这句话的人后悔,让她知道二中人照样能打败你们富中生。初中成绩好,是可以让你拽一时,但是高考成绩好,可以拽上一生。
虽然高考不是人一生唯一的出路,但是在所有人心中都一样,只有高考好的人才有资本成为真正的学霸,被当作神一样被捧着,带着学霸的光环。富中能成为富阳区排名第一的高中是这么多年来的富中人的努力,但这不意味着你们这一届就一定会比二中好,二中只是一只一直沉睡的狮子罢了,终有一天会醒过来,夺回属于他的王者之位!!!!
&&& 一个学期就此过去。我学到了什么?学到了花钱如流水,学到了一种怪声怪气的语调,一个期末考试就见证了我的失败,暑假不能休息,要去把物化还有数学补上去,理科考差了,还有分班考,加油。我可是要考到北京去的,希望分班能分进阿炳班!!!!
明天就要回到万恶的学校去了,这个学期开始就算是强制性的,也要让自己远离电脑,一心读书。为了能以后考上北京的好大学,只能对不起亲爱的电脑君了。几天的深思熟虑,为了七年后能成为上市公司的大老板,就要从此时好好读书,拿到每个学期最多的奖学金,为以后的创业积累更多的资金。
这学期要分班,希望能有一个好的班主任,一个好的同桌,一个好的班级,周围没有高分低能者,自私鬼。
沙沙沙,才六点多就被下雪声吵醒了,今天迎来了这个冬天第二场雪,第一场雪是下在期末考的前一个星期天,虽然没有积雪,但是有一阵下的是鹅毛大雪,好美,好有一派诗意,想起了以前下雪的时候和同学去玩积雪,却莫名其妙地丢了一只手套,被妈妈骂个半死
今天中饭时间,奶奶突然说她昨天做了一个奇怪的梦:她拉着比我小11岁的妹妹走在马路上,突然一个白发苍苍的老者牵着一头羊跟着她们。奶奶停下来跟老者说:“你干嘛,小孩子怕羊的!”这样蹲在妹妹旁边,让她摸。
“这会不会是暗示着今年又会生个小孩了?”奶奶诡异地问爸爸。我在一旁默不作声,这个比我小11岁的妹妹的爸妈已经备孕好久了,可就是怀不上,也难怪奶奶有这样的猜疑。如果真的暗示着这个,那我不是又会多一个比我小17或18岁的小弟或小妹吗?
午饭后,那个妹妹突然说:“我有个男朋友。”一个六岁的小朋友居然说她有男朋友,这地球太危险了,我也是醉了,我要回火星!王志锋和戴钰荧八字相合吗_百度知道
王志锋和戴钰荧八字相合吗
我有更好的答案
对于八字合婚合不合,怎样合婚,什么样的八字婚配不好,什么样的八字婚配好,你们可以看看下面八字合婚的原理就知道了。
八字不好的婚姻
1、八字中日支坐伤官的女人不能娶。
凡出生在甲午、乙巳、庚子、辛亥这四个日子的女性,日支就为伤官。
日支为婚姻宫,那里是老公在你八字中的“家”,老公家里出现的不是老公,而是一个克制老公的伤官。
一般表现严重的,会克夫;表现稍轻的会离婚;再轻点也是夫妻长期关系不和谐。这个情况,还会导致丈夫身体不好。
2、八字中伤官旺、食神多的女人不能娶。
伤官是克代表配偶正官之物,食神重见转变为伤官,所以会演变为不利于婚姻的稳定。
伤官食神多的女性,从性格上讲,自己不喜欢被人管着,却喜欢去管丈夫,脾气不好,情绪又不稳定,容易出轨,也容易引...
其他类似问题
为您推荐:
等待您来回答
下载知道APP
随时随地咨询
出门在外也不愁带鱼,动画、特效师、影视后期、
请注意看对象模式的后缀1.对象模式适合精确操作(cm)2.坐标模式里的缩放是比较宏观…
V神呀……你这么坑我真的好么……我估计教的又是又快又难的方法了要断电了,明天再…
会声会影呀他的简易特效库里转场和字幕栏,搭配下合适的剪辑和配乐,基本可以把你无…
邵钰淇是广西教育学院南宁历史文化研究所所长,主要研究方向为区域经济学、民族人类学以及少数民族非物质文化遗产问题等。不知道怎么和化肥扯上关系的。&br&&br&至于刘汉太么,看这个好了&br&&a href=&///?target=http%3A///p/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&“紫光阁廉署智库”的拙劣骗局&i class=&icon-external&&&/i&&/a&
邵钰淇是广西教育学院南宁历史文化研究所所长,主要研究方向为区域经济学、民族人类学以及少数民族非物质文化遗产问题等。不知道怎么和化肥扯上关系的。至于刘汉太么,看这个好了
请注意看对象模式的后缀&br&1.对象模式适合精确操作(cm)&br&2.坐标模式里的缩放是比较宏观的控制(倍数)&br&3.还有一个材质栏旁边的管理器(cm)且不说无法实时显示,必须回车。还有必须塌陷了才能独立坐标控制,不然都是全局统一缩放&br&4.而且用对象方法不会不小心把法线弄反了&br&5.为什么有对象存在,因为对象里除了缩放,还有很多东西呀。
请注意看对象模式的后缀1.对象模式适合精确操作(cm)2.坐标模式里的缩放是比较宏观的控制(倍数)3.还有一个材质栏旁边的管理器(cm)且不说无法实时显示,必须回车。还有必须塌陷了才能独立坐标控制,不然都是全局统一缩放4.而且用对象方法不会不小心把法…
我叫树炳,多年以后,作为躲在地下掩体里吃着压缩饼干的最后一批人类,会回想起智能纪元年春天的一个下午,我和朋友们嘻嘻哈哈看着视频直播,李世石在那场对决第4盘奇迹大逆转赢了AlphaGo。那盘棋结束前,我们都不知道,那是人类最后的黄金时代。
我叫树炳,多年以后,作为躲在地下掩体里吃着压缩饼干的最后一批人类,会回想起智能纪元年春天的一个下午,我和朋友们嘻嘻哈哈看着视频直播,李世石在那场对决第4盘奇迹大逆转赢了AlphaGo。那盘棋结束前,我们都不知道,那是人类最后的黄金时代。
&p&&strong&左右互搏,青出于蓝而胜于蓝?&/strong&&br&&/p&&p&&strong&—阿尔法狗原理解析&/strong&&/p&&br&&br&这些天都在没日没夜地关注一个话题,谷歌人工智能程序AlphaGo(国内网友亲切地称为“阿尔法狗”)以5:0击败欧洲职业围棋冠军樊麾二段,并在和世界冠军的比赛中2:0领先。&br&&br&&p&什么!!&/p&&br&&p&19年前计算机击败国际象棋冠军卡斯帕罗夫的情景还历历在目,现在计算机又要来攻克围棋了吗!?&/p&&br&&p&虚竹在天龙八部里自填一子,无意中以“自杀”破解“珍笼”棋局,逍遥子方才亲传掌门之位。难道以后“阿尔法狗”要出任逍遥派掌门了?&/p&&br&&p&1933年,东渡日本19岁的吴清源迎战当时的日本棋坛霸主、已经60岁的本因坊秀哉,开局三招即是日本人从未见过的三三、星、天元布阵,快速进击逼得对方连连暂停“打卦”和弟子商量应对之策。随后以“新布局”开创棋坛新纪元。难道阿尔法狗会再造一个“新新布局”?&/p&&br&&p&作为一个关心人工智能和人类命运的理科生,近些天刷了好些报道,记者们说“阿尔法狗是个‘价值神经网络’和‘策略神经网’络综合蒙特卡洛搜索树的程序”,但我觉得光知道这些概念是不够的。我想看看“阿尔法狗”的庐山真面目。&/p&&br&&br&&p&&b&准备好棋盘和脑容量,一起来探索吧?&/b&&/p&&br&&img src=&/f3a99d8a3d3_b.jpg& data-rawwidth=&348& data-rawheight=&232& class=&content_image& width=&348&&&br&&p&围棋棋盘是19x19路,所以一共是361个交叉点,每个交叉点有三种状态,可以用1表示黑子,-1表示白字,0表示无子,考虑到每个位置还可能有落子的时间、这个位置的气等其他信息,我们可以用一个361 * n维的向量来表示一个棋盘的状态。我们把一个棋盘状态向量记为s。&/p&&br&&p&当状态s下,我们暂时不考虑无法落子的地方,可供下一步落子的空间也是361个。我们把下一步的落子的行动也用361维的向量来表示,记为a。&/p&&br&&p&这样,设计一个围棋人工智能的程序,就转换成为了,任意给定一个s状态,寻找最好的应对策略a,让你的程序按照这个策略走,最后获得棋盘上最大的地盘。&/p&&br&&p&如果你想要设计一个特别牛逼惊世骇俗的围棋程序,你会从哪里开始呢?对于在谷歌DeepMind工作的黄士杰和他的小伙伴而言,第一招是:&/p&&br&&br&&p&&strong&“&/strong&&strong&深度卷积神经网络&/strong&&strong&”&/strong&&/p&&br&&img src=&/2e3c3fcc35aa_b.jpg& data-rawwidth=&640& data-rawheight=&156& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/2e3c3fcc35aa_r.jpg&&&br&&p&深度卷积神经网络早在98年就攻克了手写数字识别,近些年在人脸识别、图像分类、天气预报等领域无往而不利,接连达到或超过人类的水平,是深度学习火遍大江南北的急先锋。我们现在看到的Picasa照片自动分类,Facebook照片识别好友,以及彩云天气高精度天气预报(软广出现,不要打我)都是此技术的应用。这等天赐宝物,如果可以用来下围棋,岂不是狂拽酷炫吊炸天?&/p&&br&&p&所以2015年黄士杰发表在ICLR的论文[3]一上来就使出了“深度神经网络”的杀招,从网上的围棋对战平台KGS(外国的qq游戏大厅)可以获得人类选手的围棋对弈的棋局。观察这些棋局,每一个状态s,都会有一个人类做出的落子a,这不是天然的训练样本&s,a&吗?如此可以得到3000万个样本。我们再把s看做一个19x19的二维图像(具体是19x19 x n,n是表示一些其他feature),输入一个卷积神经网络进行分类,分类的目标就是落子向量a’,不断训练网络,尽可能让计算机得到的a’接近人类高手的落子结果a,不就得到了一个模拟人类棋手下围棋的神经网络了吗?&/p&&br&&p&于是我们得到了一个可以模拟人类棋手的策略函数P_human,给定某个棋局状态s,它可以计算出人类选手可能在棋盘上落子的概率分布a = P_human(s),如下图:&/p&&img src=&/ac76a560d067d86e0a596336_b.jpg& data-rawwidth=&321& data-rawheight=&312& class=&content_image& width=&321&&&br&&p&红圈就是P_human觉得最好的落子方案。每一步都选择概率最高的落子,对方对子后再重新计算一遍,如此往复就可以得到一个棋风类似人类的围棋程序。&/p&&br&&p&这个基于“狂拽酷炫”深度学习的方案棋力如何呢?&/p&&br&&p&&b&不咋地&/b&。黄士杰说P_human已经可以和业余6段左右的人类选手过招,互有胜负,但还未能超过当时最强的电脑程序CrazyStone[1,5],距离人类顶尖玩家就差得更远了。&/p&&br&&p&所以,为求更进一步,黄士杰打算把P_human和CrazyStone的算法结合一下,师夷长技以制夷,先击败所有的其他围棋AI再说。&/p&&p&等等,CrazyStone的算法是什么?&/p&&br&&p&哦,那个算法是黄士杰的老师Remi Coulum在2006年对围棋AI做出的另一个重大突破:&/p&&br&&p&&strong&“&/strong&&strong&MCTS&/strong&&strong&,蒙特卡洛搜索树&/strong&&strong&”&/strong&&/p&&img src=&/51ca11128a5aafdcfabf6_b.jpg& data-rawwidth=&440& data-rawheight=&277& class=&origin_image zh-lightbox-thumb& width=&440& data-original=&/51ca11128a5aafdcfabf6_r.jpg&&&p&蒙特卡洛搜索树(Monte-Carlo Tree Search)是一种“大智若愚”的方法。面对一个空白棋盘S0,黄士杰的老师Coulum最初对围棋一无所知,便假设所有落子方法分值都相等,设为1。然后扔了一个骰子,从361种落子方法中随机选择一个走法a0。Coulum想象自己落子之后,棋盘状态变成S1,然后继续假设对手也和自己一样二逼,对方也扔了一个筛子,随便瞎走了一步,这时棋盘状态变成S2,于是这两个二逼青年一直扔骰子下棋,一路走到Sn,最后肯定也能分出一个胜负r,赢了就r记为1,输了则为0,假设这第一次r=1。这样Coulum便算是在心中模拟了完整的一盘围棋。&/p&&br&&p&Coulum心想,这样随机扔骰子也能赢?运气不错啊,那把刚才那个落子方法(S0,a0)记下来,分值提高一些:&/p&&ul&&li&新分数= 初始分+ r&/li&&/ul&&br&&p&我刚才从(S0, a0)开始模拟赢了一次,r=1,那么新分数=2,除了第一步,后面几步运气也不错,那我把这些随机出的局面所对应落子方法(Si,ai)的分数都设为2吧。然后Coulum开始做第二次模拟,这次扔骰子的时候Coulum对围棋已经不是一无所知了,但也知道的不是太多,所以这次除(S0, a0)的分值是2之外,其他落子方法的分数还是1。再次选择a0的概率要比其他方法高一点点。&/p&&br&&p&那位假想中的二逼对手也用同样的方法更新了自己的新分数,他会选择一个a1作为应对。如法炮制,Coulum又和想象中的对手又下了一盘稍微不那么二逼的棋,结果他又赢了,Coulum于是继续调整他的模拟路径上相应的分数,把它们都+1。随着想象中的棋局下得越来越多,那些看起来不错的落子方案的分数就会越来越高,而这些落子方案越是有前途,就会被更多的选中进行推演,于是最有“前途”的落子方法就会“涌现”出来。&/p&&br&&p&最后,Coulum在想象中下完10万盘棋之后,选择他推演过次数最多的那个方案落子,而这时,Coulum才真正下了第一步棋。&/p&&br&&p&蒙特卡洛搜索树华丽转身为相当深刻的方法,可以看到它有两个很有意思的特点:&/p&&br&&p&1)没有任何人工的feature,完全依靠规则本身,通过不断想象自对弈来提高能力。这和深蓝战胜卡斯帕罗夫完全不同,深蓝包含了很多人工设计的规则。MCTS靠的是一种类似遗传算法的自我进化,让靠谱的方法自我涌现出来。让我想起了卡尔文在《大脑如何思维》中说的思维的达尔文主义[6]。&/p&&br&&p&2)MCTS可以连续运行,在对手思考对策的同时自己也可以思考对策。Coulum下完第一步之后,完全不必要停下,可以继续进行想象中的对弈,直到对手落子。Coulum随后从对手落子之后的状态开始计算,但是之前的想象中的对弈完全可以保留,因为对手的落子完全可能出现在之前想象中的对弈中,所以之前的计算是有用的。这就像人在进行对弈的时候,可以不断思考,不会因为等待对手行动而中断。这一点Coulum的程序非常像人,酷毙了。&/p&&p&但黄士杰很快意识到他老师的程序仍然有局限:初始策略太简单。我们需要更高效地扔骰子。&/p&&p&如何更高效的扔骰子呢?&/p&&p&用P_human()来扔。&/p&&img src=&/c7affbc42d19_b.png& data-rawwidth=&517& data-rawheight=&257& class=&origin_image zh-lightbox-thumb& width=&517& data-original=&/c7affbc42d19_r.png&&&p&黄士杰改进了MCTS,一上来不再是二逼青年随机掷骰子,而是先根据P_human的计算结果来得到a可能的概率分布,以这个概率来挑选下一步的动作。一次棋局下完之后,新分数按照如下方式更新:&/p&&ul&&li&新分数= 调整后的初始分+ 通过模拟得到的赢棋概率&br&&/li&&/ul&&br&&p&如果某一步被随机到很多次,就应该主要依据模拟得到的概率而非P_human。&/p&&p&所以P_human的初始分会被打个折扣:&/p&&ul&&li&调整后的初始分= P_human/(被随机到的次数+ 1)&br&&/li&&/ul&&p&这样就既可以用P_human快速定位比较好的落子方案,又给了其他位置一定的概率。看起来很美,然后实际操作中却发现:“然并卵”。因为,P_human()计算太慢了。&/p&&br&&p&一次P_human()计算需要0.3ms,相对于原来随机扔骰子不到1us,慢了3000倍。如果不能快速模拟对局,就找不到妙招,棋力就不能提高。所以,黄士杰训练了一个简化版的P_human_fast(),把神经网络层数、输入特征都减少,耗时下降到了2us,基本满足了要求。先以P_human()来开局,走前面大概20多步,后面再使用P_human_fast()快速走到最后。兼顾了准确度和效率。&/p&&br&&p&这样便综合了深度神经网络和MCTS两种方案,此时黄士杰的围棋程序已经可以战胜所有其他电脑,虽然距离人类职业选手仍有不小的差距,但他在2015年那篇论文的最后部分信心满满的表示:“我们围棋软件所使用的神经网络和蒙特卡洛方法都可以随着训练集的增长和计算力的加强(比如增加CPU数)而同步增强,我们正前进在正确的道路上。”&/p&&br&&p&看样子,下一步的突破很快就将到来。同年2月,黄士杰在Deepmind的同事在顶级学术期刊nature上发表了“用神经网络打游戏”的文章[2]。这篇神作,为进一步提高MCTS的棋力,指明了前进的新方向:&/p&&br&&p&&strong&“&/strong&&strong&左右互搏,自我进化&/strong&&strong&”&/strong&&/p&&br&&p&红白机很多人小时候都玩过,你能都打通吗?黄士杰的同事通过“强化学习”方法训练的程序在类似红白机的游戏机上打通了200多个游戏,大多数得分都比人类还好。&/p&&br&&img src=&/db76a9c4ec7bdf34bf6e5776fdae8a07_b.png& data-rawwidth=&346& data-rawheight=&138& class=&content_image& width=&346&&&p&“强化学习”是一类机器学习方法,Agent通过和环境s的交互,选择下一步的动作a,这个动作会影响环境s,给Agent一个reward,Agent然后继续和环境交互。游戏结束的时候,Agent得到一个最后总分r。这时我们把之前的环境状态s、动作a匹配起来就得到了一系列&s,a&,设定目标为最后的总得分r,我们可以训练一个神经网络去拟合在状态s下,做动作a的总得分。下一次玩游戏的时候,我们就可以根据当前状态s,去选择最后总得分最大的动作a。通过不断玩游戏,我们对&s,a&下总得分的估计就会越来越准确,游戏也玩儿得越来越好。&/p&&br&&p&打砖块游戏有一个秘诀:把球打到墙的后面去,球就会自己反弹得分。强化学习的程序在玩了600盘以后,学到这个秘诀:球快要把墙打穿的时候评价函数v的分值就会急剧上升。&/p&&img src=&/bb8f60e5df607fa2b4778_b.jpg& data-rawwidth=&640& data-rawheight=&371& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/bb8f60e5df607fa2b4778_r.jpg&&&p&黄士杰考虑给围棋也设计一个评价函数v(s),在P_human()想象自己开局走了20多步之后,不需要搜索到底,如果有一个v(s)可以直接判断是否能赢,得到最后的结果r,这样肯定能进一步增加MCTS的威力。&/p&&br&&p&黄士杰已经有了国外的qq游戏大厅KGS上的对局,但是很遗憾这些对局数量不够,不足以得到局面评价函数v。但是没关系,我们还可以左右互搏自对弈创造新的对局。&/p&&br&&p&机器学习的开山鼻祖Samuel早在1967年就用自对弈的方法来学习国际跳棋[7],而之前的蒙特卡洛搜索树也是一个自对弈的过程。但是现在黄士杰不仅有一个从人类对弈中学习出的P_human这样一个高起点,而且有一个神经网络可以从对弈样本中学习,有理由相信这次会有更好的结果。&img src=&/70380bee21aaccc32429f4d_b.jpg& data-rawwidth=&640& data-rawheight=&240& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/70380bee21aaccc32429f4d_r.jpg&&&/p&&p&先用P_human和P_human对弈,比如1万局,就得到了一万个新棋谱,加入到训练集当中,训练出P_human_1。然后再让P_human_1和P_human_1对局,得到另外一万个新棋谱,这样可以训练出P_human_2,如此往复,可以得到P_human_n。P_human_n得到了最多的训练,棋力理应比原来更强。我们给最后这个策略起一个新名字:P_human_plus。这时,再让P_human_plus和P_human对局,在不用任何搜索的情况下胜率可达80%,不加任何搜索策略的P_human_plus和开源的MCTS相比也有85%的胜率。自对弈方法奏效了。&/p&&br&&p&既然P_human_plus这么强,我们先代入到MCTS中试试,用P_human_plus来开局,剩下的用P_human_fast。可惜,这样的方法棋力反而不如用P_human。黄士杰认为是因为P_human_plus走棋的路数太集中,而MCTS需要发散出更多的选择才好。看来,P_human_plus练功还是太死板,还没有进入无招胜有招的境界。&/p&&br&&p&没关系,黄士杰还有局面评价函数v(s)这一招,有了v(s),如果我可以一眼就看到“黑棋大势已去”,我就不用MCTS在想象中自我对弈了。但考虑到P_human_plus的招法太过集中,黄士杰在训练v( )的时候,开局还是先用P_human走L步,这样有利于生成更多局面。黄士杰觉得局面还不够多样化,为了进一步扩大搜索空间,在L+1步的时候,干脆完全随机掷一次骰子,记下这个状态SL+1,然后后面再用P_human_plus来对弈,直到结束获得结果r。如此不断对弈,由于L也是一个随机数,我们就得到了开局、中盘、官子不同阶段的很多局面s,和这些局面对应的结果r。有了这些训练样本&s,r&,还是使用神经网络,把最后一层的目标改成回归而非分类,黄士杰就可以得到一个v( )函数,输出赢棋的概率。&/p&&img src=&/cbf57ac5d7e261ae0f1ead0ecd01bbab_b.jpg& data-rawwidth=&278& data-rawheight=&262& class=&content_image& width=&278&&&p&v( )可以给出下一步落子在棋盘上任意位置之后,如果双方都使用P_human_plus来走棋,我方赢棋的概率。如果训练v()的时候全部都使用P_human不用P_human_plus呢?实验表明基于P_human_plus训练的v,比基于P_human训练的v’,棋力更强。强化学习确实有效。&/p&&br&&p&万事俱备,只欠东风。准备好P_human(),MCTS,以及评价函数v(),黄士杰和小伙伴们继续进击,向着可以和人类专业选手过招的围棋AI前进:&/p&&br&&p&&strong&“&/strong&&strong&阿尔法狗&/strong&&strong&”&/strong&&/p&&img src=&/20ef39c49d2b913f91c18e_b.jpg& data-rawwidth=&640& data-rawheight=&265& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/20ef39c49d2b913f91c18e_r.jpg&&&p&黄士杰准备在MCTS框架之上融合局面评估函数v()。这次还是用P_human作为初始分开局,每局选择分数最高的方案落子,下到第L步之后,改用P_human_fast把剩下的棋局走完,同时调用v(SL),评估局面的获胜概率。然后按照如下规则更新整个树的分数:&/p&&ul&&li&新分数= 调整后的初始分+ 0.5 * 通过模拟得到的赢棋概率 + 0.5 * 局面评估分&br&&/li&&/ul&&p&前两项和原来一样,如果待更新的节点就是叶子节点,那局面评估分就是v(SL)。如果是待更新的节点是上级节点,局面评估分是该节点所有叶子节点v()的平均值。&/p&&br&&p&如果v()表示大局观,“P_human_fast模拟对局”表示快速验算,那么上面的方法就是大局观和快速模拟验算并重。如果你不服,非要做一个0.5: 0.5之外的权重,黄士杰团队已经实验了目前的程序对阵其他权重有95%的胜率。&/p&&br&&p&以上,便是阿尔法狗的庐山真面目。&/p&&br&&img src=&/fbafd1cb5d6ae9d0b95e_b.jpg& data-rawwidth=&262& data-rawheight=&274& class=&content_image& width=&262&&&p&上图演示了阿尔法狗和樊麾对弈时的计算过程,阿尔法狗执黑,红圈是阿尔法狗实际落子的地方。1、2、3和后面的数字表示他想象中的之后双方下一步落子的地方。白色方框是樊麾的实际落子。在复盘时,樊麾觉得位置1的走法更好。&br&&/p&&br&&p&深度学习、蒙特卡洛搜索树,自我进化三招齐出,所有其他围棋ai都毫无还手之力。99%的胜率不说,“阿尔法狗”还可以在让四子的情况下以77%的胜率击败crazystone。“阿尔法狗”利用超过170个GPU,粗略估算超过800万核并行计算,不仅有前期训练过程中模仿人类,自我对弈不断进化,还有实战时的模拟对局可以实时进化,已经把现有方法发挥到了极限,是目前人工智能领域绝对的巅峰之作。&/p&&br&&br&&p&&strong&后记&/strong&&/p&&br&&p&围棋是NP-hard问题,如果用一个原子来存储围棋可能的状态,把全宇宙的原子加起来都不够储存所有的状态。于是我们把这样的问题转换为寻找一个函数P,当状态为S时,计算最优的落子方案a = P(s)。我们看到,无论是“狂拽酷炫”的深度学习,还是“大智若愚”的MCTS,都是对P(s)的越来越精确的估计,但即使引入了“左右互搏”来强化学习,黄士杰和团队仍然做了大量的细节工作。所以只有一步一个脚印,面对挑战不断拆解,用耐心与细心,还有辛勤的汗水,才能取得一点又一点的进步,而这些进步积累在一起,终于让计算机达到并超过了人类职业选手的水平。&/p&&img src=&/988b28e08f03ce839e4d5abef07f07b4_b.jpg& data-rawwidth=&570& data-rawheight=&252& class=&origin_image zh-lightbox-thumb& width=&570& data-original=&/988b28e08f03ce839e4d5abef07f07b4_r.jpg&&&p&因为一盘棋走一步需要0.3ms(P_human_plus遍历整个棋盘的时间),谷歌用大规模集群进行并行化计算,自我对弈3000万盘棋生成训练集只需要一天左右的时间[4],所以如果对弈更多棋局可以提高棋力的话,黄士杰他们早就做了。目前的方案可能已经达到了CNN网络能力的极限。完整的阿尔法狗不仅需要生成训练集,还要用训练集来生成局面评估函数v(),而这还使用了两周时间,一局比赛需要花掉4个小时,自我对局速度不够快,这也许是阿尔法狗并没有能够完全使用强化学习,而仅仅是在整个过程的一小部分使用左右互搏的原因。左右互博用的还不够多,这是一个遗憾。&br&&/p&&br&&p&如果存在一个“围棋之神”,一个已经穷尽了所有的围棋步法的“上帝”,那他每一步都是最优应对。一些顶尖棋手在接受采访时表示[8],“围棋之神”对战人类选手可能还有让4子的空间,也就是说,就算下赢了人类,计算机也还有很大进步的空间。&/p&&br&&p&面对一个如此高难度的问题,计算机和人类都无法在有限时间内找到完全的规律(柯洁和李世乭比赛是一人有3小时时间思考,阿尔法狗今年3月和李世乭进行的比赛则是每人2小时)。计算机和人都是在对问题做抽象,然后搜索最佳策略。要下好围棋所需要的能力已经接近人类智力的极限:要有大局观、要懂得取舍、还要会精打细算,治理一个国家也不过如此。计算机可以学会围棋,就能学会很多一样难度的技能。在未来,也许围棋、自动驾驶、同声传译都会被一一攻克。甚至在数论、量子场论等领域,深度学习和搜索相结合,可能也会带给我们更多惊喜,比如攻克“哥德巴赫猜想”。&/p&&br&&p&那么,人工智能是否真的会很快登顶呢?&/p&&br&&p&虽然在智力方面AI有希望登峰造极,但高智商只是人类众多能力的一个方面。吴清源先生在方寸之间纵横无敌,但仍然漂泊一生,被命运推着前进。早年他做段祺瑞的门客,棋盘上把段祺瑞打的落花流水,弄得下人都没有早饭吃;后来东渡日本,三易国籍,留下许多遗憾。如果把“强人工智能”比作一个天才少年,虽然智商爆表,但其他方面还需要我们悉心加以引导。创造出“德才兼备,匡扶济世”的人工智能,才是我辈真正应该努力实现的目标。&/p&&br&&p&&b&一起加油吧,科学少年们!&/b&&/p&&br&&p&&b&To the infinity and beyond !&/b&&/p&&br&&p&参考文献:&/p&&p&1, EfficientSelectivity and Backup Operators in Monte-Carlo Tree Search&/p&&p&2, Human-level control through deep reinforcementlearning&/p&&p&3, Move Evaluation In GO Using Deep Convolutional Neural Networks&/p&&p&4. Masteringthe Game of Go with Deep Neural Networks and Tree Search&/p&&p&5. A Survey ofMonte Carlo Tree Search Methods&/p&&p&6. 大脑如何思维—智力演化的今昔&/p&&p&7. Some Studies in Machine LearningUsing the Game of Checkers.II-Recent Progress&/p&&p&8.&a href=&///?target=http%3A///topicdisplay.asp%3FBoardID%3D-4%26Page%3D1%26UserName%3Dtakami%26TopicID%3D4024042& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&围棋之神存在的话,可以让你几子?&i class=&icon-external&&&/i&&/a&&/p&&br&&br&-------------------------------------&br&以上这篇文章是我在1月28日nature论文基础上对alpha go的理解,现在又过了5个月,并且alpha go已经击败了李世石,我猜测其工作原理会有较大改进,如果有时间,我会贴出我觉得它可能的改进方向。&br&&br&欢迎转载,请保留作者信息。&br&&br&&p&最后的最后,允许插播我司的招聘广告一则:&/p&&p&———————————————————-&/p&&p&&strong&彩云天气正在招聘中(前端、后端、运营),我们在毗邻皇家园林的两层别墅式公寓办公,有钢琴和温水泳池。需要你的帮助,我们才能每天稳定快速的计算出上亿次天气预报,用人工智能帮到更多普通大众。&/strong&&/p&
左右互搏,青出于蓝而胜于蓝?—阿尔法狗原理解析这些天都在没日没夜地关注一个话题,谷歌人工智能程序AlphaGo(国内网友亲切地称为“阿尔法狗”)以5:0击败欧洲职业围棋冠军樊麾二段,并在和世界冠军的比赛中2:0领先。什么!!19年前计算机击败国际象棋冠…
昨天预测李世石会输: &a class=&internal& href=&/question//answer/?from=profile_answer_card&&AlphaGo 能战胜李世石吗? - 周克的回答&/a&&br&7个赞也就算了,评论区基本上认为我在扯淡&br&&br&这里说几点:&br&&br&&br&&b&这场棋局的真正意义,请跳出围棋的职业角度看&/b&&br&这场比赛的本质是:&b&让一个围棋选手,以围棋为介质,去破解一段强悍的计算机算法.&/b&&br&&br&&br&换个角度理解 你可以这样理解:&b&围棋 只是AlphaGo算法,硬件集群,和李世石对接的API&/b&&b&(应用程序编程接口)而已!&/b&&br&&br&&br&&b&AlphaGo vs 李世石 这种比赛的本身就是不公平的&br&AlphaGo的真正对手,应该是具备算法能力的职业黑客(同时这个黑客也要带齐工具,甚至其他的机器人算法,我觉得这才能做成一次公平对决,但很显然,这样的纯技术领域的对决,并不能像 AlphaGo Vs 李世石 这样噱头一样吸引眼球).&/b&&br&&br&&br&&br&1.我对围棋的了解只限于棋魂,吴清源传,已及一些围棋故事数据,对于下棋是很陌生的.&br&&br&&b&2.我做过,自己写过,并且亲自参与过多种机器人算法,在我所开的软件,及游戏里都有出现&/b&&br&&b&
抛开工作代码不说:我曾在知乎分享过的两个程序方案中,也有使用过类似的(筛选,识别)算法:&br&
比如:&a class=&internal& href=&/question//answer/&&淘宝刷单,是如何产生快递记录的? - 周克的回答&/a&&br&
又如:&a class=&internal& href=&/question//answer/306 的 8% 正确率验证码是否比其他验证码更有效地挡住了黄牛党? - 周克的回答&/a&&br&&/b&&b& 这些算法某种程度上,就可以归类为大家所谓的人工智能,因此我比一个围棋行业的人,更加深刻知道,&人工智能&是足以令人敬畏的.&br&&br&&br&3.我继续昨天的预测,再次预测,李世石会0:5输给AlphaGo&/b&,&b&请注意,我没用&可能&等不确定词语.&/b&&br&&br&4.为什么我打翻第一天预测李世石会&b&略败&/b&,而预测他会&b&完败&/b&?原因很简单.因为第一天的比赛足以看出&b&AlphaGo已经达到了极为恐怖的训练度(这包括背后的海量数据,已及强悍的硬件性能,&/b&48颗满负载(cache多大,线程多少不知道)的cpu,和李世石1v1,也许各位不认为能算得上&强悍&,但是请注意:这样的硬件配置只虐一个人,李世石如果也是it人士,哪怕攒过电脑,我想他也会压力山大吧?)&b&.&/b&&br&&br&6.李世石也好,古力也好,做为人类,逻辑分析能力永远不可能向机器一样,以数量级的形式翻倍.&b&这是人类的弱点,请正视&/b&.&br&&br&7.对于人工智能,在未来,要么好好控制,要么毁灭人类.我不想说&b&达尔文主义&/b&这类敏感话题,但这并不是危言耸听.&br&&br&8...赞同多继续写
昨天预测李世石会输: 7个赞也就算了,评论区基本上认为我在扯淡这里说几点:这场棋局的真正意义,请跳出围棋的职业角度看这场比赛的本质是:让一个围棋选手,以围棋为介质,去破解一段强悍的计算机算法.换个角度理解 你可以…
因为作风问题,这几年我不断和女人打交道,总结了一些经验,看了一些书,也算抛块砖,引个玉吧。&br&&br&开始正文之前,我们先看一个例子。&br&&br&男:最新出的那个xx电影你看没,咱们一起去看吧。&br&女:啊,我在网上听说那部电影是烂片啊。&br&男:不会吧,我一哥们去看了,他说还可以啊。&br&女:...&br&&br&这是一个错误的沟通案例,在生活中也比较常见。男人不断在说电影多么好看,完全没有理解对方想表达什么,一个劲“强迫”对方接受他的观点,并且,他有可能自己完全没意识到自己做错了什么。&br&&br&再来看下面这个例子。&br&&br&男:最新出的那个xx电影你看没,咱们一起去看吧。&br&女:啊,我在网上听说那部电影是烂片啊。&br&男:啊,你也看网上的评论了,好像是不怎样啊。哎,明天周末只能宅家里玩了。(&b&中性回应+状态表明&/b&)&br&女:哈哈,我闺蜜新发现了一家泰国菜,味道挺好的,要不咱们明天去试试吧。&br&&br&这是一个正面的示范。我们可以看到,&b&当女方表达对影片兴趣不强烈的时候,男方的回答有两个思路:1,或许这只是女方的谦辞,女方并不想如此容易就答应这次约会,所以要判断女方是否真的对电影无感。2,引导女方说出真实的想法。接下来,我们看到男方给了一个中性回应(对应思路1)和一个状态表明(对应思路2),女方就和男方相约去吃泰国菜了。&/b&所以,女方真实的想法其实是去吃饭,而不是看电影。&br&&br&&br&下面开始正文部分。&br&&br&&br&&b&交流篇&/b&&br&&br&也许你过往的经验已经告诉你,有效的沟通方式绝不止一种。有些沟通能力强的人很外向,看起来与每个人都有话讲,而有些人又比较沉默,安静,或者讲话甚至“拐弯抹角”。这就像这个世界一样,丰富多彩,各有不同,比如,自我揭露以及说话直快的表达方式在美国可能会行得通,但在亚洲文化里,这一特质可能被视为有挑衅的意味。所以,没有一种特定的沟通方式适用于所有人,我们要学会看人说话。&br&&br&&br&&br&&b&一、验证感受&/b&&br&&br&在生活中,我们经常受到这样的质问:“你是不是又不高兴了?”“你为什么又生我气了?”“你是不是又在撒谎了?”&br&&br&事实上,我们没有不高兴,没有生气,也没有撒谎。但被对方这么一问,心里多少是有些不愉快的。为什么会形成这种情况呢?原因在于,&b&大多数人都认定自身对事情的感受就是事实。&/b&矛盾的是,我们每个人都不喜欢别人对自己的行为草草下结论,有没有什么办法能避免这种情况呢?这就引出了本文第一个的沟通思路——验证感受。&br&&br&&b&验证感受包括三个要素:&/b&&br&&b&1.描述对方的行为。&/b&&br&&b&2.列出关于此行为的至少两种解释。&/b&&br&&b&3.请求对方对行为解释作澄清。&/b&&br&&br&举两个例子。&br&&br&“你说你喜欢我现在所做的改变”(&b&行为&/b&)&br&“但是你说这句话的语调,让我觉得你可能并不是真正的喜欢“(&b&第一种解释&/b&)&br&“虽然这只是我的猜测”(&b&第二种解释&/b&)&br&“你可以告诉我你真正的想法吗?”(&b&请求澄清&/b&)&br&&br&&br&“你这几天一回家就不说话”(&b&行为&/b&)&br&“我不确定你是不是在生我的气”(&b&第一种解释&/b&)&br&“或许你只是这段时间工作比较辛苦”(&b&第二种解释&/b&)&br&“你能告诉我到底是怎么回事吗?”(&b&请求澄清&/b&)&br&&br&验证感受能够让交流更加平和稳定,它并不假设你的感受是正确的。我们都知道,中国人特别爱面子,验证感受能以一种保留对方颜面的方式使我们在跟别人讨论问题的时候不至于直接威胁或攻击对方。&br&&br&当然,验证感受的三个要素不是一个定式,有时候不需要囊括所有要素就能凑效。&br&&br&”你很久没过来了,最近发生什么事了吗“(&b&行为+请求澄清&/b&)&br&”帮我照看小孩不打扰你休息吗?如果真的不麻烦的话,我的确需要人来帮我带几天孩子,但我不想因为我而打扰你的生活。“(&b&不需要描述行为&/b&)&br&&br&甚至如”怎么啦“,这种最简单的感受验证也能奏效,你可以靠着别人的帮忙让暂时混淆的行为产生意义。&br&&br&&br&&br&&br&&b&二、重新定义&/b&&br&&br&问话也是有技巧的。&br&&br&&br&假设你和朋友约定在一个地点见面,但你从来没去过那里,对方告诉你“一直朝前面走大概一公里,那里有个十字路口,左转就到了”。思考一下这句简单的话存在什么问题。&br&&br&首先,如果你朋友和你对一公里的概念不一样,一公里的概念对你朋友来说是走10分钟,那么怎么办?其次,万一前方有不止一个十字路口,该怎么选择呢?&br&&br&在你继续询问之前,最好以你自己的方式将刚才说话者的信息重复一遍。回到那个问题,我们可以这样说:“你是说一直走到前面学校那个十字路口,然后左转,对吗?”这种方法叫做重新定义,这样说话很有可能会得到对方的进一步澄清。&br&&br&重新定义,这种方式反映说话者的想法而不是去评判或者分析,能够传达出你对谈话的投入,它避免的双方焦急的对话,更多的是鼓励对方进一步谈话。&br&&br&&b&那么如何完成重新定义呢?有两个技巧。&br&&br&1,改变说话人的措词。&/b&&br&说话人:现在开放二胎真是没事找事。&br&重新定义:你是说开放二胎表面看起来不错,但实际上没什么用,对吗?&br&&br&&b&2,从说话人给出的信息中抓出一个例子。&/b&&br&说话人:小明在学校太不懂事了。&br&重新定义:你是说小明整天逃课打游戏,对吗?&br&&br&&br&&br&&br&&b&三、顺水推舟&/b&&br&&br&我们经常会遇到这种情况:对方拿不定不注意,想请求自己帮其做决定。有点人是真拿不定主意,而有的人只是缺一个理由,希望从你身上获得支持。&br&&br&举个例子。&br&&br&A:卧槽,现在网上搞活动,苹果6s只要3000,但是只搞2天,哎,要是我买了的话就不能出去旅游了,这3000本来是打算给自己放个假,出去散散心的。&br&B:恩恩。&br&A:我想今年我也没时间去旅游吧,年底还要考个证,一大堆资料等着看......再说现在走哪都是人。&br&B:那看样子苹果6s的价格确实挺优惠啊。&br&A:就是啊,你觉得我该买吗?&br&B:我不知道,你觉得呢?&br&A:真的好难决定啊!&br&B:(沉默)&br&A:看来我得把这手机买了,现在不买,以后可就没机会了。&br&&br&当你无法帮人做决定的时候,顺水推舟的回应是一个不错的技巧。整个过程都不需要你做太多,你的沉默就是一个让别人自己寻找答案的存在,尤其是当你用真心和人交流的时候,你的非语言行为,比如眼神的接触,声调,表情,都可以显示出你对对方的关心。&br&&br&&br&&b&未完待续...&br&&br&我将要写的下一点每个人都能用,即同理心的运用&br&写这个比较费时间,如果觉得你觉得有点价值,请点个赞给我点动力。。。&/b&
因为作风问题,这几年我不断和女人打交道,总结了一些经验,看了一些书,也算抛块砖,引个玉吧。开始正文之前,我们先看一个例子。男:最新出的那个xx电影你看没,咱们一起去看吧。女:啊,我在网上听说那部电影是烂片啊。男:不会吧,我一哥们去看了,他说…
V神呀……你这么坑我真的好么……&br&我估计教的又是又快又难的方法了&br&要断电了,明天再来详细的答&br&还是你问的_(:з」∠)_,我还想拿我那个教程充数呢……&br&这是闹哪样
V神呀……你这么坑我真的好么……我估计教的又是又快又难的方法了要断电了,明天再来详细的答还是你问的_(:з」∠)_,我还想拿我那个教程充数呢……这是闹哪样
已有帐号?
社交帐号登录
无法登录?
社交帐号登录}

我要回帖

更多关于 潘戴钰 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信