昨天,那位曾经自信表态:“阿法狗可以打败李世石,却无法打败我”的少年天才棋手柯洁以1/4目首败阿法狗,引起舆论热潮。不过这并不能说柯洁以前是在“吹牛”,毕竟我们看之前柯洁对李世石的战绩是十分惊艳的,完全可以说是吊打李世石,因此他固然有嚣张的理由。人不轻狂,枉少年。柯洁,好样的!虽然,他也不敌阿法狗。
文/今日平说(微信ID:zg5201949)
当然这并不是最重要的,最重要的某位自诩“AI导师”的人开始站出来表示:“这毫无意义,有空对弈围棋,不如投入精力研发人工智能AI。因为人工智能很快就要开始全面取代人脑了,谁先占据人工智能研发优势,谁就是未来的主宰。” 这番表态直接就把阿法狗定义为了真正的人工智能。不过作为中学时理科经常包揽满分的笔者(大学时转了法律专业,因为穷,想着学法律可以早赚钱。),对这种说法是当然持严重怀疑态度的。
我并不是要否定阿法狗的计算先进性,也不是要否定比赛结果,因为在这场博弈中,阿法狗和人类柯洁的较量,就好像是一个液压机在和人比手腕一样,是压倒性的胜利。虽然比分差距很小,但整场都是在其控制之中。且无论是阿法狗下围棋能力的成长速度,还是它的计算能力,都远非人脑所能比拟。但是,程序的计算能力强,并不意味着这个程序就是人工智能。严格地说起来,最多可以说柯洁败给了一个强大的围棋计算程序,而不是说是败给了人工智能。因为:判断一个程序是否属于人工智能,业内和科学家早有公认的评判标准,而阿法狗还远远达不到这个标准。所以我们的相关行业必须提防被忽悠,因为一旦被忽悠,后果可能很严重。
1、深蓝是人工智能吗?
在阿法狗之前出现的“人工智能”是“深蓝”,它对应的是国际象棋。国际象棋的棋盘为 8×8 的网格,对阵双方各走三步后,可能出现的棋局就会超过九百万种。因此,当时的人们认为,这个是电脑不能达到的,但是随着芯片运算速度的不断倍增,很快就达到了。它采取的策略是类似于“穷举”的方法。
首先它会搜索胜率最大的棋局,以便预测更多步以后的可能性。然后它还会在判断下一步怎么走时,先评估对手下一步棋的各种走法概率。然而这是一种非常累的方式,“深蓝”仅评估算法就有 8000 多个部分。而人类和人类之间在对弈国际象棋的时候,其实也是用的类似的计算方式。人脑会首先根据自己的下棋经验预估棋局,同时尽可能多地判断对方将要走什么棋。因此在棋盘的世界里,人脑的思维是被固定在横竖线之间的,人和人博弈的时候,本质上只是在比谁的脑子计算能力更强。
可是人的脑子,最强大的不是这个计算功能。任何人的脑子,如今都比不过计算机的计算能力,所以人类的象棋大师很快就不敌深蓝了。因为和电脑比计算能力,就等于是拿鸡蛋去和钢球比硬度一样。尽管深蓝击败了象棋大师,但它依然不能算是“人工智能”,只是一个很会计算国际象棋谱的软件而已。它和人脑的功能及思维方式,有着天壤之别。关于这一点,笔者待会儿再讲。
2、阿法狗(AlphaGo)是人工智能吗?
我们先继续讲阿法狗。阿法狗也可以说是“深蓝”的升级产品,但它的结构不同,它的“自主学习”能力更强。它不像深蓝那样需要依靠那么多的计算部分,而是采用了更简洁,更高效的计算方式。不过它依然摆脱不了:“根据当前棋局尽可能计算更多步,以及计算出对手落子概率这两点。”围棋的棋盘为 19×19 的网格,比国际象棋复杂得多,因为它需要穷举的可能数是(10^174))这已经超过已知宇宙中所有原子数的总和。由于棋盘存在如此巨大的变数,所以它长期以来一度被视为人类对抗电脑的最后堡垒。
不过既然计算机都无法穷举,人类就更无法穷举了。所以计算机只需要计算能力比人更强,就可以击败人类。根本无需穷举。
人类在下围棋时,人脑依然是被横竖线规则局限在对棋盘规则的计算当中的,每一个棋手其实也都是在通过自己的下棋经验和判断对方的落子概率来尽可能推算更多步以后的局面。当然由于围棋将比国际象棋提供的计算博弈空间更大,因此人和人进行对弈时出现的计算能力较量也就显得更有趣。有些大脑计算能力非常出色的人,可以算得比别人更精准,还能够将很多自己的绝杀套路布局在全盘棋中。但不管怎样,这个游戏的本质依然还是在比拼棋手大脑的计算能力。
而AlphaGo 同样是采用这两种思路来进行计算的。一个是评估当前局势,另外一个是通过预测对手下一步各种走法的几率,来尽可能地算出更多步数后的优势。有了这两个基点以后,阿法狗就可以开始“穷举”计算了。目前为止AlphaGo至少已经输入了三千万种棋局,自我博弈超过一百万次以上。相信以后达到三亿种棋局,一千万次以上自我博弈;或三百亿种棋局,十亿次自我博弈也不是什么难事。而人类呢?由于人类的大脑的最强功能根本不是进行这种海量运算,所以就算柯洁从娘胎里就开始下棋,且每一局都过目不忘,那么他所掌握的博弈棋局对战也不可能超过十万局吧。这,怎么比?
因此,实际上在笔者看来,阿法狗也好,深蓝也好,虽然战胜了人类,但它们的本质依然都只是在棋盘的计算能力上超越了人脑,而并不意味着它们和人脑可以比拟。因为今天的电脑或“AI”,都依然只能够进行最机械的计算组合而已,面对复杂的真实世界,缺乏基本的人脑的计算特征,都无法通过科学界公认的最基本的人工智能测试标准。
3、判断标准是什么?
要了解人工智能的判断标准是什么,就先要了解人脑的特征是什么?读者可能以为我会说情感,但其实不是。因为情感的原理更为复杂。单说人类的大脑计算规则,就依然是一个谜。尽管从神经元的分布上,人类可以大致勾勒出大脑思考的过程,可是迄今为止人类的大脑思考计算过程和规则,依然相当扑朔迷离,甚至具备某种“量子特征”。
举个最简单的例子。美国此前研发的自动无人战车AI,也号称人工智能,它不仅可以通过高清摄像头、红外线等各种手段绘制地图,然后做出比人类更为精确的驾驶操作。但它的计算过程,却很容易出现重大错误。比如,一个人类驾驶员,突然看见对面有一大团报纸堆,完全可以碾压过去。但是,无人战车无法瞬间判断它的材质。不知道它到底是一堆什么。它也许会判断成:“此路不通”,因为显然道路被巨大障碍物给堵住了。需要紧急刹车,或绕路。
而人类似乎“不经思考”,只需要看一眼,就知道这个“障碍物”到底是什么。但在我们只是看一眼时,人脑就已经瞬间完成了所有的计算,并得出了计算结果。人脑是根据什么来计算的呢?根据颜色?还是观感?这些似乎是一部分,但也不完全,它非常模糊且难以表达,支撑计算的依据特别多且特别跳跃。
当然如果你用塑胶做一个仿真的假报纸堆,人类也会上当。可问题是,只要不是这种“刻意欺骗”,那么真报纸堆和其他材质障碍物,人脑基本是可以作出瞬间判断的。但是,电脑或目前的”AI”却都不行。它无法从直接的直观感受上判断出来障碍物的材质,而是只能计算长宽高,然后呢? 就没有然后了。它无法得出结论! 目前很多的无人驾驶汽车出现离奇车祸的原因,也是如此。它对很多景物,出现了无法计算的误判。来的是一片落叶,还是一块砖头?远处灰蒙蒙的是一片障碍物,还是弯道路边小土堆?这突然闪过的黑影是大塑料袋还是一个小孩?是应该刹车还是急转弯,它完全蒙了。
其实关于这一点,当年有个很聪明的人早就想到了,所以他认为:“电脑是否具备人工智能,应该参照一个标准:即让两个智商正常的人使用电脑互相随意提问。进行多次测试后,如果有超过30%的测试者不能确定出被测试者是人还是机器,那么这台机器就通过了测试,并被认为具有人类智能。” 他叫图灵,而他提出的这个测试标准被国际社会和科学界广泛接受,也被称为“图灵测试”。——也就是说,凡是不能通过“图灵测试”的程序,均不能视为人工智能。只是单纯的计算和模仿程序罢了。美国天普大学王培:图灵测试是人工智能的标准吗?
不过很遗憾的是,现在无论再先进的电脑程序,你都完全无法与之顺利对话。前不久某“人工智能教父”,就在大庭广众下和一台号称是目前最先进的测试与“AI”进行测试。不过尴尬的是,电脑程序完全答非所问。更多AlphaGo解读:www.yangfenzi.com/tag/alphago
此前也有人想到过利用海量的聊天数据让“AI”自主学习,试着让它掌握和人类对话的技巧。这方法就和阿法狗的计算方法几乎完全一致了。不过,很可惜这个尝试悲惨的失败了。很快它就被网友“调教”成了一个满嘴脏话,充满种族歧视的对喷子机器,尽管它和人交谈的次数,可以是普通人类一生交谈次数的一百倍,一千倍,一万倍,可只要和它对话,傻子都知道它是个程序而不是一个人。
人脑,只需要掌握基本的文字语言,再进行完基本的义务教育,就可以创造出无限合理的对话来,并不需要像背棋谱那样在心中背下几万亿种可能出现的对话场景。但“AI”输入的模拟对话再多,却连基本的对话逻辑也很难具备。这就是证明人脑和目前“AI”的计算规则是截然不同的,不是一个层面的东西。
像阿法狗这类的“AI”不要说是学会人类的思考逻辑,甚至就连一般的图像识别组合也很难突破。比如著名的前中国铁道部(现铁总)火车票购票网站,为了防止有人开发“机器人抢票程序”采用的方式,就是采用识图组合。
这一下,所有的破解组都傻眼了,至今为止无法破解,只好在网上编了很多帖子骂铁总。他们唯一的破解办法就是穷举所有的图案,然后自动点击。可是铁总的图库,加上每次展示的图片数量组合可能性太多,比19*19的围棋盘多了无数倍的无数倍,因此即便知道铁总的图库是多少,计算机也永远不能计算或穷举出组合。因此,永远无法破解。不过人脑就不一样了,人一看就知道应该怎么选,“AI”却看到死也不明白到底怎么选。且就算“AI”通过海量学习,看懂了一种,换个角度,换种颜色材质和款式的梳子,再换种搭配组合(比如配合挂面),它就又分不出来了。噗……
4、我们离真正的AI还有多远?
其实,我们离真正的AI还有无限远的距离。首先,我们需要开发出和现在的电脑完全不同的“计算规则”,才有可能逐步接近人脑的计算方式。在这条路上,甚至连量子计算机商业化以后都还是远远不够的,它还涉及到对目前整个软件领域算法的彻底颠覆。不亚于量子物理对经典物理带来的冲击,甚至更大。
其实今天计算机和人脑的差距根本不在计算能力,而是在于计算规则。人脑和当前的计算机认识世界的方式、规则和途径是完全不同的。因此人类和电脑去比计算能力是毫无意义的,而目前这种规则下的计算机计算能力再强也不可能拥有人脑的特征。也就是说,不可能通过图灵测试,更称不上是人工智能。给我一根棍子,就能撬动图灵测试,MIT用AI自动生成声音
目前这种层次的“AI”和真正意义上的AI,差距究竟有多大呢?笔者认为差距就像没有掌握现代数学和物理化学之前的冷兵器文明,和掌握了现代数学和物理化学之后的工业文明的差距一样大。尽管,冷兵器时代就可以制造出射程达到1500米的弩,这比今天的很多枪支射程还远,可是却毫无意义。因为当弩兵对上现代化的机枪兵,只有被碾压成渣的份儿。因为根本就不是一种层次上的东西。
一个更简单的例子是,人类看过一遍风景很难按照原样一丝不改地画下来。有一个“怪才”他有严重的自闭症,但大脑有过目不忘的功能,基本上看过的画面都能画出来,连细节也基本丝毫不差,这已经是人类所知的在这方面功能最强的大脑了。可是即便如此,他的大脑也不如任何一部拍照手机计算能力强。手机一点,咔嚓拍下来,比他画出来的更事无巨细。
难道我们可以说这就证明“相机人工智能画家”,已经超越人类画家了吗?当然不能!因为相机只是在完全复制这一点上超越了人类。人和相机去比完全照搬的能力,纯粹就是自找没趣。但人脑却可以诞生艺术,只要看过风景以后,人脑可以衍生出无限种想象,会绘画的人就可以演绎出无限多比原风景更有欣赏价值的作品来,而这是目前任何“相机人工智能画家”所不可能具备的东西。
5、尾声和警惕
人类的大脑至少在可见的未来是不可取代的东西,能通过“图灵测试”的真正人工智能在可见的未来不可能出现。当然即便是目前这种拥有超强计算能力的软件出现,也将极大地影响一些现有行业。比如目前中国已经出现的无人集装箱码头,无人快递公司,甚至未来的无人机快递,还有那些在基础医学、银行、金融、社会安全保障、娱乐系统等方面,都有可能极度依赖这些超强计算能力的软件。
不过我们依然需要严格区分人工智能,和非人工智能。不能误导读者,更不能随意修改定义人工智能的行业标准。只有这样我们才会发现人脑的价值不可取代性,否则就会出现重大的问题。
比如笔者曾经在一家网络公司工作,公司的数据分析部当时就引用了大数据概念。有一次,数据分析部门作出的一份根据大数据和调查文件的结论显示:玩家在游戏中死亡并掉落装备后,选择下线的几率很大,甚至弃玩游戏的几率也会上升。同时,在调查文件里,99%以上的玩家表示厌恶掉落装备。
因此,在这个大数据行为分析结论的支持下,公司里搞数据分析的部门就拿出一份不可置疑的报告,认为必须取消玩家死亡后会掉落装备这一个功能,才能使游戏的在线率变得更高。——当然,如果交给“AI”,恐怕”AI”也一定会得出同样的结论。所以,当时公司也决定要删除这个功能。
不过我站出来力排众议,强烈要求保留这个功能。我表示:人玩游戏不仅要看数据,更还要看感受。虽然玩家掉落装备很心痛,但正因为心痛才会有珍惜游戏装备的情感产生,同时玩家不太容易记住打掉别人装备时的快感,却比较容易记住自己掉落装备时的痛苦。一旦删除该功能,玩家再也得不到打掉别人装备的快乐,同时也失去了珍惜游戏装备的情感,最后的结果必然将是游戏彻底没人玩了。
这场争执最后的结果是,公司决定先开一个不掉落装备的服务器试试水。结果显然不能掉落装备的服务器数据惨不忍睹。一般服务器可以有4000人同时在线,而不掉落装备服务器一开始有3000人,三天后就暴跌到600人,两周后掉到200人不到,最后宣布关闭。公司长舒一口气,表示幸亏没纯看数据就做出决定。
我认为,这就是我们人类大脑的“AI”以及“大数据”的显著不同之处,我们的思考魅力在于能想到“AI”所不能想到的东西。而如今随着外媒重新包装“人工智能”概念并配合“大数据”炒作,将很有可能误导我们的相关产业研究走入歧途。而鼓吹“人工智能”在很多重要数据领域可以彻底取代人的思潮,也很容易埋下重大隐患。
我们必须理清的是:目前尚无一个程序可以通过“图灵测试”,因此也就不存在真正意义上的人工智能。所以人脑在任何领域,都是不可缺失的唯一防火墙,也是唯一决策和研判核心。对于这一点,我们的相关产业应当引起足够的重视,望传递、周知。– 熬夜原创不易,各位读者喜欢本文的话,就打赏一下吧。
——————— 氧分子网(www.yangfenzi.com)延伸阅读 ———————
【柯洁战败解密】AlphaGo Master最新架构和算法,谷歌云与TPU拆解
作者:胡祥杰 闻非 张易 (新智元报道 )
【新智元发自中国乌镇】乌镇人工智能峰会进入第二天,哈萨比斯、David Silver和Jeff Dean等谷歌高管纷纷发表演讲。他们对AlphaGo 2.0的新技术进行了详细解读。几位“谷歌人”纷纷提到一个关键词——TPU。Jeff Dean 甚至直接放出了与GPU的性能对比图。从昨天的赛后采访到今天的主旨演讲,哈萨比斯等人一直在强调TPU对新版本的AlphaGo的巨大提升。看来,TPU将会成为接下来一段时间内谷歌的战略重点,GPU要小心了。本文带来哈萨比斯、David Silver现场演讲报道(附PPT)。
在升级版AlphaGo首战柯洁后的5月24日,中国乌镇人工智能高峰论坛(The future of AI in Wuzhen)如期召开。一上来就是DeepMind CEO Demis Hassabis和AlphaGo团队技术负责人 David Sliver 的演讲,介绍AlphaGo的研发以及AlphaGo意味着什么。新智元第一时间为你带来精彩内容。
Hassabis和Sliver演讲后,谷歌大脑资深研究员Jeff Dean和Google软件工程师陈智峰一起介绍了《什么是AI?AI是如何工作的?》。不仅如此,还有很多耳熟能详的谷歌、DeepMind大牛出席了本次乌镇人工智能高峰论坛:Alphabet董事长Eric Schmidt(对话AI的潜能)、下午还有TensorFlow软件工程师Rajat Monga(开发者如何使用AI)、谷歌Cloud & AI 研发主管李佳(行业如何应用AI),以及DeepMind联合创始人Mustafa Suleyman和谷歌健康研究产品经理Lily Peng(如何应用AI应对挑战:健康、能源、教育等)。
在论坛最后,乌镇智库秘书长李小鸣将在大会上发布报告《全球人工智能报告2017》。
柯洁与AlphaGo终极对决,谷歌或成最大赢家
“AlphaGo 外交”,谷歌向中国示好
彭博社对昨天的围棋大战进行报道时,形成“AlphaGo 和柯洁的围棋大战已经成了 Google 的‘AlphaGo 外交’”,算是 Google 改进和中国关系的最新努力。
报道称, Google 专家和中国著名学者将展开交流讨论,议题是 DeepMind 的不可战胜的围棋 AI AlphaGo 和柯洁之间的对局。谷歌在中国缺席已久。它最初退出源自对审查制度和网络攻击的担忧,而今这种缺席成了其在全球搜索和视频方面霸主地位的最大短板。虽然 Android 是中国最受欢迎的手机软件,有一定的广告收入,但其他服务,比如搜索、Gmail、应用商店和地图都被中国大陆的防火墙所禁止。然而,关于其卷土重来、和 Android 应用商店或其可搜索的学术知识数据库 Google Scholar 建立伙伴关系的猜测,从未停止。
“很高兴回到中国,我对这个国家深表钦佩。” 施密特在峰会上向来宾和行业高管们表示,“呈现在大家眼前的是一个改变世界的非凡机会。”
外媒普遍认为,此次围棋峰会是谷歌向中国示好的一个标志。
由施密特担任主席本次活动是在政府举办年度世界互联网大会的同一地点举行的,选择这里是政府要进一步表达对互联网的认识。峰会标志着一系列 Google 重新融入中国的最新努力:2016年,Google 首席执行官Sundar Pichai 表示,该公司想要重新为中国本地用户服务。同时,Google 在中国各个城市定期举办活动,吸引开发者。
去年,AlphaGo 赢得了与李世石的围棋比赛,在中国的社交媒体引发了 AI 系统是否可以击败中国顶尖棋手的讨论。
谷歌希望本周在乌镇展示出机器智能的最新成就,Google DeepMind 的联合创始人兼 CEO 哈萨比斯在最近一篇博文中写道:峰会的目的是讨论AlphaGo 背后的机器学习方法如何帮助解决现实世界的问题,如能源消耗。
施密特则在会上表示:“ Google和 Alphabet 呈现给大家的是我们一直在做的事情——AI。”
2. 哈萨比斯,David Silver 和 Jeff Dean 的关键词——TPU
上周的I/O大会上,谷歌CEO Pichai 宣布推出的第二代 TPU,既能够加速推理,也能够加速训练。
据介绍,第二代 TPU 设备单个的性能就能提供高达 180 teraflops 的浮点计算量。不仅如此,谷歌还将这些升级版的 TPU 集成在一起成为 Cloud TPU。每个 TPU 都包含了一个定制的高速网络,构成了一个谷歌称之为“TPU pod”的机器学习超级计算机。一个TPU pod 包含 64 个第二代TPU,最高可提供多达 11.5 petaflops,加速对单个大型机器学习模型的培训。
昨天,在升级版的阿老师(AlphaGo)半目优势取胜柯洁之后,DeepMind CEO 哈萨比斯和AlphaGo项目总负责人David Silver 在新闻发布会上接受媒体采访时表示,AlphaGo实际上是在谷歌云端的单一一台机器上运行的,建立于TPU上。这和去年使用的谷歌云端多台机器分布式结构有很大区别。因为现在有了一个运行起来更好、更简单的更加强大、高效的算法,它能够用十分之一的运算力来得到更强大甚至更好的结果。
5月24日的峰会论坛主旨演讲中,David Silver 再次提到,新版AlphaGo(DeepMind称之为 AlphaGo Master)是在单个TPU上进行游戏。他还提到了新版本的AlphaGo与去年对战李世石的旧版使用的计算资源的区别,由此看出TPU的强大。
David Sliver之后,谷歌大脑负责人Jeff Dean出现在舞台上,他的演讲话题也没离开TPU。
从DeepMind和谷歌的几位负责人的演讲中可以看到的关键词有三个:AlphaGo、TPU和谷歌云。在提到TPU时,直接放出了与GPU的性能对比,形象生动。这个广告,可以打99分吧。
首战击败柯洁后,DeepMind在发布会上说了6件大事
5月23日,在AlphaGo 首战以四分之一子的优势战胜柯洁之后,双方参加了新闻发布会。
柯洁赛后感言:遇到了“围棋上帝”,比赛中早就预料到结果
柯洁在赛后发布会表示,自己印象最深的,是AlphaGo自己“断”的那手棋,在人类的对局中几乎不可能,但他后来思考发现那步棋“太出色”,“让人输得没脾气”。另外,这次的AlphaGo让他感觉像是遇到了围棋“上帝”,与之前的Master都不同。最后,他对自己“永远有信心”,会全力以赴去下接下来的两盘棋。
柯洁在数子时被媒体捕捉到“笑”了一下,在发布会上坦言那是“哭笑”。实际上他很早就知道结果了,主要是AlphaGo下棋是匀速的,因此在单关也花费比较多时间思考,所以柯洁在这个空档拼命数子,料到自己会输,最后果然输了1/4子。
DeepMind:算法比数据量更重要,AlphaGo 的架构细节稍后会全面公开
DeepMind的赛后感言可归纳为以下几点:
1. DeepMind对于“机机大战”没有兴趣——要衡量 AlphaGo 的实力,必须让它跟人类对弈。这次比赛的目的也是为了发现AlphaGo的更多弱点。李世石上次赢了AlphaGo,他们回去以后就对架构和系统做了升级,希望能弥补这种“knowledge gap”。当时的弱点或许被“Fix”了,但AlphaGo还有更多弱点,这是AlphaGo自己(通过自我对弈)和他们这些开发人员都不知道的。
2. AlphaGo不会控制输赢差距,它只想赢。AlphaGo总是尽量将赢棋的可能性最大化而不是将赢的目数最大化。它每次面临决策的时候,总是会选择它自己认为更稳妥、风险更小的路线。AlphaGo在争取赢棋时的一些行为,它可能会放弃一些目数以求降低它感知到的风险,即使这个风险非常小。
3. 没有完全弃用人类棋谱。当然在最初的版本中,AlphaGo从人类棋谱中学习,后来到现在它大部分的学习材料都来自于自我对弈的棋谱。新版本AlphaGo的一大创新就是它更多地依靠自我学习。在这个版本中,AlphaGo实际上成为了它自己的老师,从它自己的搜索中获得的下法中学习,和上一个版本相比大幅减少了对人类棋谱的依赖。
4. AlphaGo这次强大的地方在于算法。去年和李世石对战后,他们提出了更强大的算法,而且发现算法比数据量更重要,这也是为什么Master的训练速度是初代AlphaGo的十分之一。这次AlphaGo的硬件支撑是统一通过谷歌云来的,跟上次对战李世石的时候不同。
5. AlphaGo实际上是在谷歌云端的单一一台机器上运行的,建立于TPU上。这和去年使用的谷歌云端多台机器分布式结构有很大区别。因为现在有了一个运行起来更好、更简单的更加强大、高效的算法,它能够用十分之一的运算力来得到更强大甚至更好的结果。
6. 还会公布一些AlphaGo自我对弈的棋谱,这周稍后会正式宣布。
哈萨比斯:AlphaGo 研发介绍, AlphaGo 意味着什么?
“希望这周的比赛能够激发中国的围棋棋手和世界的人工智能科学家”。哈萨比斯介绍了DeepMind在做的事情,以及他们的目标——“发现智能的本质”(slove intelligence),他将最新版 AlphaGo 的技术细节留给了 David Sliver 具体阐释。
哈萨比斯提到,在DeepMind,他们研究的不是一般的人工智能(AI),而是通用智能,或者说通用的学习机器。这种机器具有自主学习的能力,可以执行多种任务,而其技术核心就是深度学习和强化学习。哈萨比斯认为,只要创造出通用的学习机器,就能够解决很多现在所无法解决的问题。他以载入史册的IBM深蓝对战国际象棋大师卡斯帕罗夫为例,深蓝当时获胜的根本原因是暴力计算。
哈萨比斯认为,与围棋不同,国际象棋是一种盘面已知的游戏,也就是说,最开始所有的棋子都在棋盘上,当你判断局势时,所有的信息都已经有了。而围棋则是不断构筑的游戏,要判断在哪里落子,很多时候顶尖围棋手会告诉你,他们依靠的是直觉,“就感觉这样走是对的”。
刚开始的不经意一步,很可能对未来的形势造成巨大乃至根本性的影响。
Sliver首次揭露了AlphaGo Master版本的新架构和算法
Sliver还是先从最初的AlphaGo讲起,为什么DeepMind团队会选择围棋攻克呢?Sliver表示,围棋是人类最古老最有智慧的游戏,也是测试、构建并且理解人工智能最好的方式。实际上,游戏被用于测试人工智能由来已久,计算机科学家先从国际象棋入手,到了现在的围棋。。而且,这些游戏AI的很多算法后来也被应用于各种各样的AI程序和应用。最后,围棋为誉为AI的圣杯,就像Demis刚刚说的那样。
形象化的比较,国际象棋的选择是有限的,每一步都大约有30多种选择,然后再下一步又有30多种选择,以此类推。实际上,国际象棋的这种树形结构很适合用传统的计算机方法去搜索并解决。而围棋的选择则要多得多,每一步都有几万种走法(several hundreds),而下一步又有几万种……由此形成的排列组合,对于传统的计算机或人工智能而言是无解的。
DeepMind是如何解决这个问题的呢?初版AlphaGo,也就是战胜了李世石的那个版本,核心是两个深度神经网络。深度神经网络有很多参数,这些参数可以通过训练进行调整,从而很好地对知识进行表征,真正理解领域里发生了什么事情。我们希望AlphaGo能够真正理解围棋的基本概念,并且全部依靠自己学习这些概念。
具体说,AlphaGo用了卷积神经网络,可以从每一层的一小块当中,得出一些更高层的理解,你可以简单理解为表示棋子在这种局势下会赢还是会输的特征,然后每一层以此类推,最终得到高层表征,也就是AlphaGo学会的概念。初版AlphaGo使用了12层网络,而Master版本的使用了40层。
AlphaGo使用两种不同的深度神经网络,第一种是策略网络,目标是选择在哪里落子。第二种则是价值网络,价值网络的作用是衡量走这一步对最终输赢的影响:棋盘的局部(patches)经过很多层很多层的表征处理,最终得出一个数字,这个数字就是代表这步棋会赢的概率,概率越大(接近1),那么AlphaGo获胜的概率就越大。
AlphaGo训练的过程,实际上结合了两种机器学习,首先是监督学习,其中人类棋谱被用作训练数据,然后结合强化学习,在强化学习过程中,系统通过试错不断提升自己,弄清哪种策略最好。这张图显示了AlphaGo的训练过程,先从大量的人类专家下棋的训练数据集开始,我们让策略网络所做的,就是学习人类专家的走法,不断调整参数,最终在每个位置走出跟人类专家一样的走法。
这就是策略网络,我们用策略网络做强化学习,也就是让策略网络不断自我对弈,在很短的时间里掌握什么是最好的下法。然后,我们用价值网络判断,每一步是黑棋赢还是白棋赢,就像人类专家通过直觉判断是否该这样走一样。
如果像往常一样,我们要去判断每一步赢的几率,那么计算力是不够的。在AlphaGo这里,我们结合策略网络和价值网络,大幅降低了搜索的难度。首先,我们用策略网络减少了搜索的宽度,然后用价值网络减少了搜索的深度。
这两种搜索算法的结合,也被称为蒙特卡洛树搜索方法,AlphaGo先使用策略网络选择怎么走,然后用价值网络判断这样走的赢率,最终得出一个数字。这个模拟过程会重复很多次,计算出每种不同走法的赢率。然后,这些数字会被传回一开始的部分,让系统决定走哪一步赢率最大。
上面说的这些就是跟李世石对战的AlphaGo的大致步骤。这张图显示了当时AlphaGo使用的硬件或者计算力支撑,使用了大约50块TPU,能够搜索(结合图中显示的数字)。看到这个数字你也许会认为AlphaGo做的计算量很大了,但实际上深蓝当时做的是AlphaGo的要做得多,每秒做上亿次计算。因此,可以说AlphaGo做的计算比深蓝要“更聪明”,更谨慎。
接下来我介绍新版AlphaGo,也被称为AlphaGo Master,这次对战柯洁的新版AlphaGo。AlphaGo Mater使用更加有效的算法,所需的计算量是AlphaGo的1/10。这张图显示了AlphaGo Mater使用的硬件,通过谷歌云提供的一块TPU,你可以把它当做是一台计算机。
而使Master如此强大的原因之一,是我们使用了最好的数据——AlphaGo自我对弈的数据。所以,AlphaGo实际上成了自己的“老师”,每一代生成的数据都成为下一代、更强一代的训练材料。我们使用这一过程,训练了更强大的策略网络和价值网络。
具体说,我们让AlphaGo自我对弈,也就是通过强化学习,生成大量数据,训练下一代的AlphaGo。这时,策略网络就使用它自己生成的数据,在不进行任何搜索的情况下,自己训练自己得出最强大的走法,由此得出了目前最强大的策略网络。
类似的,我们也这样训练价值网络,我们使用AlphaGo自我对弈后获胜的那些数据来作为训练样本,这些都是质量很高(最高)的样本,里面含有大量每局AlphaGo自我对弈中每一步走法赢率判断的信息。换句话说,新的价值网络会判断Master每一步的最终赢率是多少。
然后,我们将上述过程重复多次,不断得到新的价值网络和策略网络,AlphaGo也能不断做出更高效的搜索质量和更好地判断胜率。
那么,我们怎么衡量AlphaGo的能力呢?我们最初用Zen和进行对比,后来是樊麾,再到李世石,以及线上对战平台。
但是,只通过自我对弈是无法找出AlphaGo的弱点的。这也是我们今天来乌镇对战柯洁的原因。当然,深度强化学习也不仅仅用在围棋上,还有游戏中。
·氧分子网(http://www.yangfenzi.com)综合整理
·氧分子网(http://www.yangfenzi.com)延伸阅读:
➤ AlphaGo又赢了,然后呢?用人的创造物来否定人是极其荒谬的
➤ AlphaGo棋手Master战胜聂卫平柯洁60连胜 幕后工程师为黄士杰
➤ 《自然》论文详解:AlphaGo 背后的深度神经网络和树搜索
➤ 我们该恐惧的,不是阿法狗,而是AlphaGo身后的Google与美国
为什么在人工智能领域,科学家总是热衷于让AI跟人类下棋,玩游戏?从简单的跳棋、五子棋,到更加复杂的中国象棋、国际象棋,以及最近非常热门的围棋和德州扑克。每次AI在某个智力游戏上成功地击败人类选手,便会让大家唏嘘不已,慨叹AI会在不久的将来取代人类…
幸运的是,AI接手地球还并未发生。我们不仅不需要如此杞人忧天,而且还会欣喜地发现人工智能的技术进步给生活带来了更多便利。一个会下棋的AI也并非科学家的终极目标,其更积极的意义在于,AI算法在研究棋艺的过程中不断精进和提升,会带来更多设计上的创新,从而在根本上提升人工智能算法的能力和适用范围。
而科学家之所以乐于选择棋类游戏,一方面是因为它们自古以来就被认为是人类智力活动的象征,模拟人类活动的AI自然要以此为目标。成功达到人类甚至高于人类水平,可以吸引更多人关注并投身于人工智能的研究和应用中来。
另一方面,棋类也很适合作为新的AI算法的标杆(Benchmark)。棋类游戏的规则简洁明了,输赢都在盘面,适合计算机来求解。理论上只要在计算能力和算法上有新的突破,任何新的棋类游戏都有可能得到攻克。
除了棋类游戏,牌类游戏(比如德州扑克、桥牌、麻将、斗地主等)也逐渐成为人工智能研究的新方向。而在更加大型的电子游戏方面,比如星际争霸、我的世界(Minecraft),科学家也开始了新一轮的AI算法的创新。这些不同的游戏在研究人员的眼里究竟有什么区别?这些研究成果对我们的生活又有什么意义呢?下面我们就为大家扒一扒这两个问题。
棋牌类AI家族
了解棋牌类AI,我们可以先从它的分类讲起。这一家族按照牌面“坦诚”度的不同,可以分为两支脉络:一支擅长“打开天窗说亮话”,另一支则是“猜测推理”的智能高手。
国际象棋、围棋等盘面信息都是公开的,对弈双方接收到的信息完全相同,因此也被称为“完全信息类”的AI博弈;而德州扑克、桥牌、麻将等游戏,每个人无法看到对手手里的牌,所以称之为“非完全信息类”的AI博弈。
完全信息类——看得到我就算得出
顾名思义,即棋面信息大家都可看到,博弈双方接收到的信息是完全对等的,如国际象棋和围棋。此类博弈中,AI每次只需要根据当前盘面,搜索计算以后各种情况下自己的胜率。为了提高搜索效率,一般需要对搜索过程中产生的“博弈树”进行广度和深度剪枝。就是我们平常下棋时常说的算多远和算多准。为了算得远,我们一般需要让AI少看对手和自己不太可能走的地方,称之为策略函数。为了算的准,我们需要更加准确地评估多步后的盘面自己的胜率,称之为价值函数。找到了合适的函数,再加上计算机的强大计算力,让AI达到或超过人类成为可能。在博弈树和策略价值函数的选择上,“完全信息类”棋类AI算法经历了从“AlphaBeta剪枝算法”、“蒙特卡洛树搜索”到“深层神经网络”的迭代更新,功能也不断“进化”。
跳棋、五子棋 | 难度指数 ★
跳棋和五子棋的空间复杂度较低。甚至在不需要对博弈树剪枝的情况下,计算机凭借强大的计算能力便可以计算所有盘面的可能。所以在这种相对简单的棋类游戏中,人类已经不存在战胜AI的可能。
中国象棋、国际象棋 | 难度指数 ★★★
象棋的空间复杂度较高,暴力求解的方法并不可行。但是相对而言容易找到适合的价值函数。以国际象棋为例,可以根据棋盘上残留棋子的类型和位置给出一个大致的评分。比如,棋盘上如还有皇后加10分,有车加5分,有马加3分,以此为基础计算函数。为了提高效率,国际象棋还有巨大的开局和终局数据库来保证残局计算的准确度。依靠这些规则,1997年“深蓝”第一次战胜了人类国际象棋冠军。其后,电脑象棋程序甚至可以在PC上运行并击败顶级人类选手。
围棋 | 难度指数 ★★★★
围棋的空间复杂度高,据估计围棋的决策点大概有10的170次方之多。找到合适的策略和价值函数一直是围棋AI的核心问题。蒙特卡洛树搜索算法用概率的方法帮助围棋AI找到了一个较为准确的价值函数,并帮助程序达到了业余高段的水平。而借助深度神经网络,研究员寻找到了更好的策略和价值函数的计算方法。通过增强学习,AI还可以无限模拟各种对弈情境,生成上亿数据,用来训练生成更准确的函数。集大成的 “AlphaGo”在2016年以4:1历史性战胜了世界顶级围棋棋手李世石。而正在进行的AlphaGo新版本与柯洁之战,不知道又给我们带来何种新算法和启示。
非完全信息类——三缺一也不怕了吗
在博弈过程中,如果双方得到的信息是不完全、不对等的,需要通过猜测对方底牌计算概率,就属于非完全信息类,如德州扑克、桥牌、麻将等。
非完全信息博弈要求更为复杂的推理能力,不仅要看别人打了什么牌,还要猜测别人手里有什么牌,并根据对手行动暗示出的信息,来计算自己的最优出牌出法。由于对手的行为不仅暗示他的信息,也取决于他对我们的私人信息有多少了解,我们的行为透露了多少信息。所以,这种“循环推理”,导致一个人很难孤立地推理出游戏的状态。
现代博弈理论创建者、计算机先锋冯·诺依曼有句名言,用来形容非完全信息类对弈再合适不过:“现实世界有很多假象、骗术,需要你去思考别人对你的策略到底看穿了多少。这就是我提出的理论所涉及的博弈。”
德州扑克 | 难度指数 ★★★★
德州扑克的搜索复杂度是10的160次方,和国际围棋接近。博弈中主要采用“纳什均衡”原理——在一个特定时刻,寻找相对于其他参与人的最优反应。与围棋相比,扑克不仅要根据不完全信息进行复杂决策,还要应付对手的虚张声势、故意示弱等招数。去年年底,来自阿尔伯塔大学、查尔斯大学和布拉格捷克理工大学的计算机科学家开发的 DeepStack在二人无限注德州扑克中打败了人类职业玩家;今年年初,卡内基∙梅隆大学所开发的 Libratus 又击败了四个更加优秀的职业选手,这是AI 在不完全信息博弈中堪称里程碑式的突破。对于人工智能而言,下一个挑战是征服多人扑克。
麻将 | 难度指数 ★★★
目前麻将主要风靡于亚洲,所以国标麻将和日本麻将都有比较强的 AI,高于人类平均水平,但是和人类顶尖高手的水平还是有较大的距离。麻将的搜索复杂程度远远小于围棋和德州扑克,但是由于(一般)是四人博弈,其对技术的要求和二人零和博弈(例如一对一德州扑克)很不相同。二人零和博弈的解法主要是寻找纳什均衡策略或近似纳什均衡策略,多人博弈中由于存在多个均衡的可能性以及多人的相互影响,纳什均衡策略没有任何性能的保证,从技术上来讲这意味着大家几乎要从头再来,这在技术上带来了新的挑战(和多人扑克比较类似)。
星际争霸,我的世界 | 难度指数 ★★★★★
星际争霸和我的世界这类游戏的复杂程度不仅在信息的不对称,更在于其更加开放的游戏规则。此类游戏更加类似人们在现实世界中遇到的情况。游戏规则的开放性让游戏世界会出现很多计算机很难处理的新情况。比如特殊的从未出现过的地形特点,对手长时间的密谋和规划等。排除计算机在运行速度上的优势,计算机还未真正在这些游戏上证明自己的能力。
小贴士:与完全信息类对弈相比,有时候德州扑克、麻将对弈输了,不全是因为打得不好,有可能从一开始牌不好,所以赢面比较低。运气的成分在这类棋艺比赛中非常重,这一点与国际象棋和围棋大不同。在围棋中,专业选手和非专业选手的对决,从来不会因为运气的存在而马失前蹄或极其偶然地咸鱼翻身。
棋牌类AI 的意义在哪里?
从社会层面的反馈看,有人会顾虑,机器对弈人类获得成功,会破坏棋类艺术本身的意味,它们会让专业棋手的价值受到挑战,甚至让更多的人放弃学习棋类运动;有人却觉得这样的赛事可以普及各种棋类,让更多人对这些棋类、游戏等产生兴趣;还有人会夸大AI带来的对人类的威胁……
可能在技术进步的过程中,确实会引发一些社会问题,但这在人类每个历史阶段都会遇到,人类也不会因此而放慢技术进步的步伐,一些现在看起来引发大众不适的社会问题,一定会逐步解决。爱因斯坦说过:“科学,究竟是给人带来幸福还是带来灾难,全取决于人自己。” 毕竟,在一场场人脑和AI的巅峰对决中,并不是机器打败了人类,而是人类超越了自己!
未来AI更广泛的用途一定会是在类似无人驾驶、智能安防以及人工智能助理这种真正意义上的非完全信息类的真实环境里。在真实世界,AI遇到的问题千变万化,不会有一个统一的规则、统一的函数就能帮助其解释相应的行为。棋牌类AI只是人工智能非常早期的演练而已。
所以,AI在各种棋牌游戏和人类对战,其意义不在于输赢本身,更重要的是人们对这类游戏都耳熟能详,能够通过比赛了解到AI的最新进展,这对AI的发展有很大促进作用,毕竟AI进化的过程还相当长,即便是围观群众,也需要了解这个未来会与每个人的生活都息息相关的领域。
我们也期盼着棋牌类AI的成功和突破能够启发AI在其他方面的研究和应用,并能将创新应用到更多行业和领域,激励更多的人投身于AI的研究和实用化,让人类生活更加便捷、高效和智能化,使整个人类和大自然都能够受益于AI。在对弈过程中,人工智能研究领域的技术、专家人才培养体系也得以更加完善,从而推动人工智能去攻克一个又一个技术和应用的“高地”。
本文作者:微软亚洲研究院资深研究员杨懋、主管研究员秦涛
来源:果壳网 作者:S.西尔维希耶 编辑:姜Zn
今天,千年水乡乌镇将迎来一场举世瞩目的围棋峰会。在为期一周的峰会中,“世界第一围棋AI”AlphaGo将与中国围棋职业九段棋手柯洁对弈三场。并与其他知名中国棋手一起进行团队赛和配对赛。
第一日对战结果
就在刚刚,柯洁与AlphaGo结束了三番棋的第一局,AlphaGo执白 1/4子胜。这也是中国围棋中最微小的胜负。
迄今为止的公开赛事中,AlphaGo VS. 人类围棋选手,战绩已达70胜1负。本文首发微博@天了噜小组长 ,抱着Logo的那只蠢猫据说是小组长本人。
在赛后新闻发布会上,柯洁表示:“(阿尔法狗)实在下得太出色了,我输的也没什么脾气,真的是很厉害。”
AlphaGo是谁?为什么这场对决会如此受人关注?这篇文章会为你梳理事情的全貌。
① AlphaGo是什么?
AlphaGo是由英国Google DeepMind公司开发的围棋人工智能程序。它可能是有史以来最强大的围棋棋手。
DeepMind公司于2010年由杰米斯·哈萨比斯(Demis Hassabis)博士、沙恩·莱吉(Shane Legg)博士和穆斯塔法·苏雷曼(Mustafa Suleyman)共同创立。其中,哈萨比斯和莱吉相识于伦敦大学学院盖茨比计算神经科学组。
与其说是一间创业公司,DeepMind看起来更像是一家致力于新技术的实验室。他们的项目包括创造一个能够以和人类一样的方式“学习”如何玩游戏并达到高水平的人工智能。在只用原始像素和游戏得分作为输入数据的情况下,他们的程序学会了包括《乓》(Pong)和《打砖块》(Breakout)在内的多种游戏的玩法,并达到了超人的水平。
2014年,DeepMind被谷歌以4亿美元收购。同年,AlphaGo项目诞生,开始一步步向围棋游戏的巅峰发起挑战。
“在‘深蓝’战胜卡斯帕罗夫之后,围棋就成了游戏AI最后的圣杯。”哈萨比斯说。图片来源:blog.google
② AlphaGo和人下围棋战绩如何?
在今日对战之前,所有公开赛事中,AlphaGo与人类围棋选手较量的战绩是——69胜1负。
2015年10月,AlphaGo在没有任何让子的情况下,以5:0的悬殊比分击溃欧洲围棋冠军樊麾二段。
2016年3月,韩国职业棋手李世石九段迎战AlphaGo,以1:4不幸败北。此战之初,柯洁曾断言李会以5:0的比分大胜,AlphaGo毫无胜算。但在李世石输掉第三盘后,柯洁也不得不承认计算机的实力强大。表示“跟AlphaGo下的话,同样的条件下,我输的可能性非常大”。
第一场对战的最后时分。之后,李世乭投子认输。
2016年12月,神秘棋手“Master”登录中国弈城围棋网,以每天十盘的速度接连击败中外各大顶尖棋手,取得了空前绝后的60连胜。人们耳熟能详的职业棋手如古力、常昊等纷纷被斩落马下,柯洁也不幸成为它的手下败将。在输给Master后,柯洁身体抱恙住院。2017年1月4日,AlphaGo团队公布“Master”背后正是升级版AlphaGo的这一事实。
曾经,柯洁用“震撼”来形容AlphaGo带给围棋界的感受,但同时也表示人类还会变得更强。如今,在乌镇的围棋峰会上,柯洁将在5天内与AlphaGo交锋三局。现在,第一局已经结束,AlphaGo以1/4子的优势险胜柯洁。之后两局,胜负将会如何呢?
③ AlphaGo对决柯洁,大家怎么看?
考虑到人工智能在网络快棋中的先天优势,目前人们仍未能断言AlphaGo在允许人类思考更长时间的慢棋中表现同样良好。不过,谈及乌镇围棋峰会上柯洁对阵AlphaGo的可能结果,人类棋手表现得非常悲观。
中国“棋圣”聂卫平表示,他认为柯洁会被0:3击溃。古力九段认为,如果柯洁发挥出100%的状态,那么他也许有5%的胜率。而曾经狂傲地认为“阿尔法狗战胜不了我”的柯洁,也谦虚地表示:“这次能代表人类出战是我的荣幸,我将尽全力去争胜,一决胜负,抱有必胜的信念和必死的决心,不轻易言败。”
古力(左一)、樊麾(左三)、聂卫平(右二)、柯洁(右一)与谷歌CEO桑德尔·皮蔡(左二)一起探讨AlphaGo的棋艺。图片来源:deepmind.com
哈萨比斯则在博客中期待柯洁能将AlphaGo的表现逼到极限,乃至超越极限。同时,由陈耀烨九段、周睿羊九段、芈昱廷九段、时越九段和唐韦星九段组成的团队也会与AlphaGo进行一场较量。哈萨比斯希望他们能够测试AlphaGo的创造力和适应能力到底在什么水平。
④ AlphaGo到底是怎么下棋的?
在一局围棋中,平均每一步的下法大约有200种可能。棋盘上可能出现的局面总数到了远大于宇宙中原子总数的地步。因此,通过暴力穷举手段预测所有的可能情况并从中筛选中最优势走法的思路,并不适用于围棋AI。
围棋棋盘上出现的可能局面数远大于宇宙中的原子数量。图片来源:Deepmind
AlphaGo选择了别的下棋方式。支撑AlphaGo提高棋力、打败人类选手的“秘诀” 有三个:深度神经网络、监督/强化学习、蒙特卡罗树搜索。
提示
此处涉及部分专业术语
深度神经网络是包含超过一个认知层的计算机神经网络。对于人工智能而言,世界是被用数字的方式呈现的。人们将人工智能设计出不同的“层”,来解决不同层级的认知任务。这种具备许多“层”的神经网络,被称为深度神经网络。AlphaGo包含两种深度神经网络:价值网络和策略网络。价值网络使得AlphaGo能够明晰局势的判断,左右全局“战略”,抛弃不合适的路线;策略网络使得AlphaGo能够优化每一步落子,左右局部“战术”,减少失误。两者结合在一起,使得AlphaGo不需要过于庞大的计算也能够走出精妙的棋局,就像人类一样。
AlphaGo与柯洁对弈中,Google团队依然由黄士杰博士代替AlphaGo落子。来自微博@Google黑板报
监督学习和强化学习是机器学习方式的不同种类。监督学习是指机器通过人类输入的信息进行学习,而加强学习是指机器自身收集环境中的相关信息作出判断,并综合成自己的“经验”。在初始阶段,AlphaGo收集研究者输入的大量棋局数据,学习人类棋手的下法,形成自己独特的判断方式。之后,在不计其数的自己与自己模拟对弈,以及每一次与人类棋手对弈中,AlphaGo都能并根据结果来总结并生成新的范式,实现自我提高。
最后,蒙特卡洛树是一种搜索算法。AI在利用它进行决策判断时,会从根结点开始不断选择分支子结点,通过不断的决策使得游戏局势向AI预测的最优点移动,直到模拟游戏胜利。AI每一次的选择都会同时产生多个可能性,它会进行仿真运算,推断出可能的结果再做出决定。
AlphaGo中的蒙特卡罗树搜索流程。图片来源:Nature
⑤ 除了AlphaGo,围棋AI哪家强?
依赖于上述三大“武器”,AlphaGo成为了目前人类制造出来的最为优秀的围棋AI。连败人类棋手的胜绩就是明证。但除了它之外,世界各国也开发过不同的游戏AI,向围棋这一智力上的“绝对领域”发起挑战。
法国研发的Crazy Stone(狂石),日本研发的Zen(天顶)都曾是这一领域的翘楚。它们都曾经给人类造成过威胁,但从未像AlphaGo一样将最顶级的人类棋手打的一败涂地。在AlphaGo一举走红之后,人工智能界对围棋AI的研发热情空前高涨。
Zen的改良版DeepZenGO在2017年3月参加了日本举办的“世界最强棋手决定战”,先后负于中国棋手芈昱廷九段和韩国棋手朴廷桓九段后,战胜日本棋手井山裕太九段,取得第三名的成绩。
由中国腾讯公司研发的围棋AI“绝艺”(Fine Art)于2016年3月后完成,同年8月23日首次战胜职业棋手。11月2日,绝艺战胜世界冠军江维杰九段。11月19日,绝艺与柯洁九段交手,取得了一胜一负的成绩。如今,绝艺对世界冠军和全国冠军的胜率,已经能够维持在90%以上了。
⑥ 弄一个谁都打不过的围棋AI,有什么用?
在多年的呕心沥血后,AlphaGo和一系列崛起的围棋AI一起成为了围棋界新的高峰。毋庸置疑,它们的下棋方式会改变人们目前对围棋下法的观念。许多曾经的定势将会被打破,新的格局即将开始。也许在若干年后的围棋教科书上,流传多年颠扑不破的真理将会被改写。可是,花了那么多人力物力,研究者们想做的,就只是这样一个能够下赢人类的AI吗?
当然不是。
1997年纽约,与IBM深蓝电脑终局对弈开始时的加里·卡斯帕罗夫。那是国际象棋AI第一次打败顶尖的人类。9年后,人类最后一次打败顶尖的国际象棋AI,国际象棋界从此接受了“人胜不过AI”的境遇。Credit Stan Honda/Agence France-Presse — Getty Images
AlphaGo是一个标志。它的诞生,意味着人们对人工智能的探索已经到达了一个新的阶段。造就AlphaGo的学习模式,将被推广到各种领域,譬如面孔识别,语音识别等等。造就AlphaGo的核心技术,也许还能在其他领域同样的帮助我们。
尽管不如AlphaGo那么有名,但DeepMind研制的AI已经在为谷歌公司服务了。他们出品的人工智能帮助谷歌减少了40%在机房冷却系统上的花费。他们还希望能够与英国国家电网合作,利用人工智能将英国的能耗减少10%。
AlphaGo和它的同伴们能走多远?这件事,可能还要时间给我们答案。不管你愿不愿意承认,人工智能的时代已经慢慢到来了。在国际象棋、在围棋、在你所知道的任何一个领域,都会慢慢涌现出能过代替人类的人工智能。
柯洁在比赛前夜谈及人工智能。图片来源:新浪微博
这是好事还是坏事?没有人能够预测。但无论人们是不是喜欢这个事实,新的时代已经降临了。
一个AI
那是我的时代。
AlphaGo与柯洁的三番棋激起新的AI波澜,人工智能热潮汹涌,舆论喧嚣纷杂、莫衷一是。有机构对全球AI技术发展进行了地图式脉络分析、多技术点位的行业扫描。
FutureLab未来实验室与DCCI*未来智库创始人、《黑科技》出品与作者之一的胡延平,接受媒体(谷歌探秘)采访时,发表了独特的见解,认为未来人工智能存在9大悬念。
悬念1:比赛胜负不是关键,未来AI进化速度多快以及如何进化才是问题
问:5月23-27日,Alpha Go将和世界围棋冠军柯洁对战,而距离上一次Alpha Go与人类的对战才一年时间。您觉得,这次对战的胜负有悬念吗,为什么?在这一年时间里,一个人类棋手的进步,和Alpha Go的进步,会有哪些明显的对比?
胡延平:比赛结果没有悬念,AlphaGo背后未来AI的进化速度到底有多快以及如何进化才是悬念;人类棋手的棋力提升越往高阶越缓慢,而AI能力的提升幅度还在几何级数的飞跃式成长过程当中。
无论学习能力、计算速度、大局观、控制力还是细节推算,AlphaGo均远在柯洁之上,人类棋手剩下的只有不确定性之魅,和程序出漏洞、恶手的可能性之侥幸,但是现在连漏洞的找寻都变得非常困难。
悬念2:计算智能向感知智能的历史一跃,未来还需远胜AlphaGo的感知智能来完成
问:Alpha Go之父杰米斯·哈萨比斯说,Alpha Go的发明,并不是为了赢取围棋比赛,对此您的理解是?您觉得这场人机对战的意义是什么?
胡延平:AlphaGo是DeepMind面向应用转型之际,为了拓展市场品牌认知,临时推出的一个博眼球的“非产品”,所以的确如哈萨比斯所言,不是为了赢取围棋比赛。现在AlphaGo在欧美市场已经成功赢得医疗健康等领域一些大客户的需要,用到AI技术的传统行业需求大单。
对DeepMind而言,AlphaGo帮助其取得市场成功不言而喻。对于AI这个领域而言,算是继深蓝战胜卡斯帕罗夫之后的又一个计算智能阶段的符号显著性超过技术突破性的里程碑。但是,这个里程碑依然在计算智能这个阶段和范畴之内。
因为互联网、社交媒体的传播力远胜于深蓝时代,加之AI领域近年来的确在图像识别、语音识别等方面技术水准有明显突破,AlphaGo与李世石、柯洁的对弈受到了前所未有的关注和热度极高的传播。
所以其意义从只是一场比赛的意义,上升成为一场人与AI的人机大战意义,又被一些舆论上升为AI挑战人类、人工智能,超越人类这样的技术乃至人类史上的奇点意义,甚至人工智能未来将控制人类,甚至毁灭人类这样的灾难性意义。
而事实上,这些意义里面,有些还算实事求是,有些就是在有意利用人类惯常发生的群体性心理恐慌来哗众取宠了。在人工智能超越人类智能的历程中,真正的里程碑将会接二连三,但是真正的历史性的里程碑并不是AlphaGo。
AlphaGo依然是计算智能,只不过是已经进化到原理不同于深蓝而效能远在深蓝之上的计算智能2.0,从计算智能向感知智能的历史性一跃,未来还需要远胜于AlphaGo的感知智能来完成。
悬念3:AI本身是中性的,取代人的部分劳动如何真的成为对人的普遍解放而不是奴役
问:对于人工智能将超越人类、替代人类的观点,您怎么看?
胡延平:人工智能也好,人的智能也好,有很多维度。单就某些维度的计算效率(也并不是所有的计算)、数据信息的基本存储处理(如果不恰当的称其为记忆的话)而言,人工智能早就已经在有些维度超越人类了,而且这些超越不足为奇。AlphaGo是计算意义上的算计。实际上,在人工智能对人类智能的超越历程中,计算、算计能力的超越最不足为奇。
整体而言,AI依然处于计算智能阶段,正在开始往感知计算方向走,但是距离认知计算还比较远。AI依然处于早期、幼稚期,今天的AI的基本架构就原理而言依然比较“机械”,有最简单的记忆能力、监督与增强学习能力的AI才刚刚产生,有内生AI能力的AI更只是雏形初现。用算法模拟人类情感模式所可能产生的AI情感还说不上是真正的情感。在今后相当长一段时间内,最强大的AI也依然是有本体无主体的客体。
我比较赞同Michael Jordan的看法,Michael是真正的专业人士,AI热潮中的醒者,“霍金不是人工智能的研究者,他是一个外行”,这句话只有他这样的人说出来,公众才不会纷纷侧目、不以为然。
AI的进化速度不会像Michael Jordan预计的那么保守(至少当前可以预计的是具备学习、记忆、感知、情感、内生AI等能力,乃至具备自我逻辑而非自我意识的本体而非主体意义上的AI将接踵而至),但是Michael对AI基本技术点位的观点和未来发展进阶的基本理解,都是值得赶潮者和观潮者借鉴的。
不过,这些并不妨碍诸多AI以及Powered by AI的技术和产品未来会越来越多取代人类的工作。但是,取代本身其实是中性的,甚至相对劳动奴役人类而言,取代是对人的解放,但是,取代如何真的成为解放、普遍的解放,而不是一部分人奴役另一部分人的利器,这是悬念,这方面的制度安排、协作规则、社会流动、数字平权等恐怕比技术本身的拓新更为重要。
悬念4:如何防止AI成为被利用的恶之花
问:您觉得人工智能对人类带来了哪些颠覆?是危险的,还是能够帮助人类生活得更好?
胡延平:人、人性、人类自身的问题,才是那个危险因素,或者才是可能赋予AI以恶的力量的第一动因。麻烦制造者首先是人类自身,社会矛盾、国际冲突、权力秩序、财富分配、数字鸿沟、产业落差、全球化与逆全球化、种族问题、宗教冲突等任何一个方面的负的动能,都可能使得AI的应用偏离中性。人类最大的敌人是人类自己,最有可能毁灭人类的是人类自己,或者未来少数人所操纵的AI。
历史的不同阶段,科技力量不同程度充当了杀戮利器的角色,只不过技术越强大,被杀戮者越众,每一番杀戮规模从数十万数百万到数千万,杀戮效率和量级越来越高。AI不是恶之花,人之恶才是。
悬念5:AI是the only option吗?the only option以及to be AI的意思是“人类成为AI”吗
问:有媒体写到,Elon Musk曾经说过成为AI是人类唯一选择,这一点如何解读?
胡延平:这是国内某媒体的解读。他们日前把Tim Urban写Neuralink的一篇长文里的to be AI翻译为“人类成为AI”,并且是the only option。事实上the only option本身就不是科学思维。
Elon Musk不是神,其观点也有过于激扬的时候,thinks we have only one good option: to be AI,理性而言这里更多应该是“走向AI”的意味。
有些人把Neuralink上升到数字永生、创造神人的高度。而实际上即使人机连接、脑机接口,都还处于极为幼稚的早期技术探索期,不是说一点儿进展都没有,而是说距离付诸实用还相当远。别说俄罗斯科学家的2045永生计划到时候实现不了,其它国家那个时候也实现不了。
科技传播,以讹传讹不太好。造神是问题,泡沫破了的时候反踩创新者一脚更是问题。虽然越来越多黑科技颇具科幻色彩,但是科学和科幻还是有所不同。
作为业者,我们有必要在系统扫描、深度分析的基础上,与业者一起探索科技未来,与公众一起接近技术真相。不负责任地制造混淆视听的“虚拟现实”,不是业者该做的事。这也是FutureLab未来实验室与DCCI*未来智库,与国际国内力量合作,持续着力于人工智能等20多个领域7000多个技术点位的深度扫描,给出《全球创新前沿科技地图》的部分原因。希望有益,哪怕是一点点。
悬念6:AI不是那头狼,人类也不是那群羊,技术驱动的不确定性未来,乐观得起来吗
问:从前面你的种种观点来看,似乎对于AI的未来你是悲观的?
胡延平:恰恰不是,这要看哪个方面。如果只是从技术角度看,我是乐观派,不是和AI逆向而行,更不是反AI,只是反对神话AI,希望少看到一些故作耸人听闻的标题,少看到一些收“未来吓唬税”的内容,希望科技传播来得更专业一些,技术研发来得求真一些,创业创新来得务实一些。
显而易见目前AI已经被神话了,AI技术还在早期的早期,AI技术从业者理性审慎,苦思冥想,即使日夜求索一些重大问题也是百思不得其解,而一些外部舆论和投资人心潮澎湃,浮想联翩,心神失宁,要么被“未来”吓到,要么拿“未来”吓唬人。
从AI之于人类社会的角度看,乐观的因素多,悲观的因素也不少。只是悲观的因素来得不会像有些舆论说的那样快,尤其所谓人工智能与人融合创造出神人的问题。技术意义上的AI在持续进化,人类的进化貌似与技术的进化处于不对称的被动地位,但是技术的进化实际是人类作为个体和群体的进化的一部分,即使再给十年左右时间,AI技术也到不了影响人的存在形态、可以被神话的阶段,动辄群体性的心理恐慌才是短板,AI不是那头狼,人类也不是那群羊,狼在人心和人性里。
从人开始应用AI,到人自然交互AI,到人连接AI,到人融合AI,四个相对(完全是相对而言)的阶段,过程漫长,前路维艰,仅就连接而言,即使BCI脑机接口这一个问题的逐步求解,也远比人类成为AI之后人与AI的存在形态会是怎样这个问题的回答要艰难;AI化生存、成为AI、数字永生、人类在AI中永生,这是四个问题;即使50年之后,AI依然在人类控制和定义的世界之中,那个阶段的最大问题不是AI圈养人类、控制人类或者AI失控,而是人类自己是否失控。
悬念7:AI是下一代基础设施的关键,但什么是AI的基础设施,各路玩家正在如何布局
问:您认为人工智能行业应该具备的关键力量是什么?
胡延平:如前所述,人工智能还在早期、幼稚期,还比较“机械”,要解决的技术问题比较多,而技术问题的解决远不止于算法的提升。AI在过去漫长历史过程中尤其在近五年以来效能的显著提升,得益于神经网络、深度学习、机器学习等不同层次和方面的长足进步,互联网、大数据、云计算则是催化作用得以发生的不同于过去的温床。
下一个五年,在计算智能方面,除了上述NN、DL、ML等关键方面包括BigData、Cloud等基础方面继续突破以外,新的计算架构、芯片的技术跃迁是非常重要的基础,甚至将会决定未来AI的竞合、格局、布局、业态、分布。
我们看到新内核架构的GPU效能每一代可以有十倍速级别的跃升,FPGA不仅没有黄花老去反倒在AI专用计算、AI向移动端迁移过程中发挥重要作用,一些ASIC类型的AI专用芯片虽然灵活性不足但计算效率非其它架构可比,而介于ASIC和FPGA之间的TPU不仅效能超越GPU,而且借助开发云未来市场潜力巨大。这些从软到硬的重要方向只有充分布局、潜心积累,深度耕耘,才会有收获,否则都只是应用、算法的皮毛,创新精进、以技术迭代能力实现代际跨越更是无从谈起。
AI是下一代基础设施的关键,但什么是AI的基础设施以及AI基础设施的关键,以及AI基础设施方面各路玩家是如何布局、争夺和演进的,这一点要有清楚认知。而认知的一个重要启点是不能局限于小AI,而必须面向以新IT(Intelligent Technology)诸多领域为基础的大AI。传感、数据、智能三位一体,而从传感、网络、数据再到云管端智能,大AI五位一体;从云智能、雾智能到尘智能,大AI至少是相对的三层结构。
在面向未来的AI之战过程中,做个类似AlphaGo的东西去下赢几场棋没有意义,做个图像识别程序参加个国际比赛拿个奖之类也没有太大意义,因为这些不仅只是AI的技术局部,更只是AI应用皮毛。
悬念8:什么样的企业称得上AI核心玩家?AI基础设施将使得哪些AI创业公司被迫转型?
问:哪什么样的企业真的是在做AI,什么样的AI企业其实是Powered by AI,什么样的企业是AI用户也就是所谓AI+?
胡延平:什么样的企业称得上AI尤其AI基础设施的核心玩家?这个问题可以通过另外一些关键问题的回答来佐证:
①.它是不是不可或缺的、有技术引领能力的那一个?
②.它在AI基础设施最底层、传感层有无布局?
③.它在GPU、FPGA或ASIC架构的AI计算领域有没有技术产品位置?
④.有没有全球开发者在它云端的开发平台或开发工具上研发AI应用?
⑤.它有没有提供AI解决方案或将AI引擎化的能力?
⑥.它有没有把AI能力通过云端开放平台广泛提供给用户?
⑦.它有没有基于云管端架构,向用户提供AI自然界面、自然交互的智能产品或服务?
⑧.它有没有成为AR-VR-MR产品背后的那个AI驱动者?
⑨.它有没有AI走向移动终端或IoT的部署,并且已经有所进展?
⑩.在增强学习、AI记忆、算法迭代等方面,它有没有创新的突破或贡献?它有没有面向感知计算有所准备,有没有传感、生物传感、人机连接、BCI等方面技术准备?
AI基础设施的提供者,正在关键方面将AI所需的计算、开发工具等基础能力予以开放,这使得原来一些在应用领域通过解决AI从无到有问题发展起来的开发者和创业团队可能被替代。
此外,在无人机、无人驾驶、AR-VR-MR等领域所需解决方案方面,AI基础设施的提供者开始提供开放、成型的套件,甚至在OS里引擎化、云端接口化、程序里SDK化,这也将使得一批相关领域的创业公司被迫转型。
AI基础设施布局已经棋过中盘。
悬念9:AI论文大国有没有可能成为AI强国?互联网时代依托人口红利、消费红利成为应用大国的景象会不会发生AI式的复现?
问:请您预测一下未来国内人工智能行业发展的趋势。
胡延平:预测不敢讲,趋势不敢讲,只是交流几点不成熟的个人看法,抛砖引玉。
1、中国是AI论文大国,但不是AI技术大国,这一点是做完《全球创新前沿科技地图*人工智能》及其分析之后得到的阶段性结果;国内曾经有一份报告说根据发表的论文和引用数量, 从近两年开始中国已经处于人工智能研究的领先地位,占据半壁江山,连白宫一份报告都对此感到 “eclipsed”,可是 AI不仅是发 paper,一中一外这两份报告都是站不住脚的 。大家可以看看地图和相关数据,无须我多说。
2、AI领域我们与外部世界的时差、代差、落差在扩大,而不是在缩小,华人科学家众多且成就卓著的现状,无助于情势逆转,AI没有一劳永逸,原生创新、云管端软硬协同、快速迭代能力极为重要。
3、不仅AI基础设施,下一代信息基础设施的主要部分都已与中国无缘,互联网时代依托人口红利、消费红利成为应用大国的景象在AI这一波将会重现,AI的时代盘口是技术,只做应用缺乏技术,必然没有重要地位。
4、国内很多地方讲到AI的时候说的是小AI,实际上大AI才是应有的视野架构,需要从Intelligent Technology角度去看大AI,相应做一些该做的事情。
5、这是代际更替意义上的新一轮创新周期,AI是核心驱动,是未来,但不是未来的全部,面向未来,认知是基础。
6、现在的问题是如何在有限的空间创造更多可能,尤其是有没有可能局部介入,在AI核心领域、AI基础设施层面能够有一些大的作为,至少不那么全盘被动。