黄铁军教授的《电脑传奇》系列文章在《中国计算机学会通讯》上共刊登4篇,此篇为第二篇,阅读第一篇请点击文章链接:黄铁军:计算机出世—你所不知道的电脑秘史 你应该知道的电脑未来
人工智能
从1956年在美国达特茅斯学院举行的“人工智能夏季研讨会”(Summer Research Project on Artificial Intelligence)算起,人工智能概念登上历史舞台已经60年了。这次历史性会议如今已成经典,但它的主要发起人当时都是刚入道的“青椒”(青年教师)。主推手约翰•麦卡锡(John McCarthy, 1927-2011)是位数学天才,冯•诺伊曼的一次报告给他种下计算机专业的种子,他1951年从普林斯顿大学数学专业博士毕业,辗转斯坦福大学,1955年到达特茅斯学院数学系任助理教授。另一位组织者马文•明斯基(Marvin Lee Minsky, 1927-2016)算是麦卡锡在普林斯顿大学数学专业的学弟,1954年获得博士学位,当时任哈佛大学初级研究员。1953年夏,他俩在贝尔实验室遇到克劳德•艾尔伍德•香农(Claude Elwood Shannon, 1916-2001)。1955年夏,麦卡锡在IBM学术访问时,又遇到IBM第一代通用计算机701主设计师纳撒尼尔•罗彻斯特(Nathaniel Rochester, 1919-2001)。罗彻斯特一直对神经网络感兴趣,于是两人商定邀请香农和明斯基一起,联名向洛克菲勒基金委提交申请,计划邀请10位专家,来年夏天在达特茅斯学院举行为期两个月的“人工智能夏季研讨会”。
麦卡锡等4人的申请书列出了计划研讨的7个话题。(1)自动计算机(automatic computer):“自动”指可编程,并无超出“计算机”这个概念的新含义;(2)编程语言(how can a computer be programmed to use a language):没有超出软件编程的其他含义;(3)神经网络(neuron nets):研究“一群神经元如何形成概念”;(4)计算规模理论(theory of size of a calculation):即计算复杂性理论;(5)自我改进(self-improvement):真正的智能应能自我提升;(6)抽象(abstractions):对感知及其他数据进行抽象;(7)随机性和创造性(randomness and creativity):创造性思维可能来自受控于直觉的随机性。今天来看,(1)、(2)和(4)都是计算机科学的基本内容,虽未完全解决,至少问题十分清晰,(3)是神经网络,(5)和(6)可以归入机器学习,(7)属于强人工智能,这4个问题尚未解决,甚至问题本身都还没界定清楚。更多人工智能AI解读:www.yangfenzi.com/tag/rengongzhineng
再回过来看看这个申请书的基本思想。开宗明义,申请书把这次研讨会的基础建立在 “学习——以及智能的其他所有特征的方方面面,原则上都可以精确描述,从而可以制造出仿真它的机器(every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it)”。这个基本思想实际上蕴含了一个前提假设,或者说预设了实现人工智能的技术路线:先精确描述智能。有些智能的确可以精确描述,经典人工智能的符号主义和知识工程进行了成功的尝试。有些智能却不能形式化地描述,例如会议第七个话题涉及的直觉和创造性。经典人工智能的兴与衰,正是这个基本思想的结果。
关于人工智能和计算机的关系,第一个研讨话题“自动计算机”说得很直接:“目前计算机的速度和存储能力还不足以模拟大多数人脑功能,但这并不是主要障碍,问题在于我们写不出能充分发挥既有潜力的程序”。1953年IBM发布了第一台电子计算机产品IBM701,1954年贝尔实验室组装出第一台晶体管计算机TRADIC,会议的4名提案人中,既有701的主设计师,又有贝尔实验室的香农,他们推测“计算机的速度和存储能力不是障碍”基本靠谱。问题在于,到底能否靠写程序“模拟大多数人脑智能”?如果是冯•诺伊曼、维纳、麦卡洛克或皮茨评审这个申请,盯上这句话,八成会否定这个项目。可惜的是,那个夏天冯•诺伊曼被查出癌症,维纳和麦卡洛克及皮茨的关系3年前就已经分崩离析,没机会和这些年轻人争论计算机和形式逻辑的局限性。不过洛克菲勒基金会倒也没手软:把麦卡锡预算的13500美元砍到7500美元。
达特茅斯会议给人留下深刻印象的是,艾伦•纽厄尔(Alan Newell, 1927-1992)和赫伯特•西蒙(Herbert A. Simon,中文名:司马贺,1916-2001) 报告的“逻辑理论家(the Logic Theorist)”程序,能够证明《数学原理》中命题逻辑的大部分。之后,两人合作开发“通用问题求解器(General Problem Solver)”,提出“物理符号系统学说”,开创了人工智能符号主义学派。
要“精确描述智能”,除了逻辑,还需要知识。20世纪70年代,知识工程和专家系统成为经典人工智能的研究主流。1984年,道格拉斯•莱纳特(Doug Lenat)发起Cyc工程,试图将各个领域的本体及常识综合集成,以此为基础实现知识推理。Cyc被称为“人工智能历史上最有争议的项目”之一,最主要的反对意见来自对“人工”构造智能这个技术路线的质疑。这种质疑实质上是对经典人工智能基本思想的质疑:决定智能的规则是人工设计的,人是人工智能的造物主。经典人工智能的兴衰,根源就在“人工”二字,正应了“成也萧何败也萧何”。
神经网络
皮茨和麦卡洛克是神经网络模型的提出者,威廉•沃尔特(William Grey Walter, 1910-1977)则是神经网络实践的先驱,他们都对控制论的创立产生了重要影响。沃尔特是一位神经生理学家,对神经连接何以产生复杂行为十分感兴趣,开发了第一台脑电图仪。与基于计算发展智能不同,沃尔特坚持用纯模拟电路仿真大脑。他在1948年前后制作了一系列电动自主机器人,最著名的称为“乌龟(tortoises)”,其中一款带有光感受器,可自行寻找电源插座;另一款内置两个条件反射神经环路,可重现巴普洛夫条件反射行为。沃尔特是机器人学的开创者,“真正人工生命(real artificial life)的先驱”,影响了一代又一代机器人学家,例如被称为麻省理工学院人工智能实验室“反叛者”的罗德尼•布鲁克斯(Rodney Brooks),卡耐基梅隆大学机器人研究所的汉斯•莫拉维克(Hans Moravec),马克•蒂尔登(Mark Tilden)等。
在麦卡洛克、皮茨、维纳和冯•诺伊曼在美国东北部为大脑模型和控制论争论得不可开交时,加拿大生理心理学家唐纳德•赫布(Donald Olding Hebb, 1904-1985)却认为大猩猩才是可塑之才,于是来到位于美国东南部佛罗里达的耶基斯国家灵长类研究中心,设计了一套大猩猩情感测试方法。七年下来,虽然对大猩猩的情感教育效果寥寥,赫布自己却悟出了一套《行为产生的神经心理学理论》。这本1949年出版的专著最著名的贡献是赫布法则(Hebb¡¯s Law):神经网络的学习过程发生在神经元之间的突触部位,突触的联结强度会随着突触前后神经元的活动而变化。“同时激发的神经元之间的突触连接会增强”在人工神经网络模型中得到广泛采用。
第一个尝试赫布法则的应该是马文•明斯基。1950年,他还是大四学生时就对神经网络感兴趣。1951年,明斯基到普林斯顿大学数学专业读博士,就用真空管搭建了一个人工神经网络自学习机器,名为SNARC(Stochastic Neural Analog Reinforcement Calculator,随机神经模拟强化计算器),采用随机连接按照赫布法则实现神经网络学习。毫不奇怪,这个学生的“科研实践项目”当时并未引起什么关注。
明斯基读高中时有位低一届的同学弗朗克•罗森布拉特(Frank Rosenblatt, 1928-1971),明斯基高中毕业后到海军服役一年,所以两人同年入读大学:明斯基到哈佛大学读数学,罗森布拉特到康奈尔大学读心理学,都在1950年毕业。1956年,罗森布拉特从康奈尔大学获得博士学位,进入康奈尔航空实验室认知系统部从事心理学研究,得到美国海军研究办公室资助,研制“感知机(Perceptron)”。1957年第一个版本的感知机是运行在IBM 704上的仿真软件,后来才开发出硬件“马克1号”(Mark 1 Perceptron):视觉输入是一个20×20感光单元阵列,通过随机方式和响应神经元层相连,学习过程就是自动调整连接权重(用电动马达调整电压计),通过这种方式,机器能够认识不同的形状。1958年,《纽约时报》以《海军新装备‘做中学’:心理学家展示能够阅读和越来越聪明的计算机雏形》 为题,对感知机报道说,“有望能说会写、能看会走,能够自我复制,并能意识到自我存在”。1962年,罗森布拉特出版《神经动力学原理:感知机和脑机制理论》,全球很多实验室纷纷仿效,应用于文字识别、声音识别、声纳信号识别以及学习记忆问题的研究,神经网络研究达到第一次高潮。
感知机在新兴的人工智能领域引起广泛争议,其中就包括明斯基。明斯基比罗森布拉特早两年获得博士学位,回到哈佛任教,申请国防项目却一路不顺。更想不通的是,自己10年前还在海军服过役,海军却把大把经费投给自己的学弟,支持的事竟然是自己六年之前就干过的,还没头脑地对学弟的项目大肆宣传,是可忍孰不可忍!于是明斯基拿起自己擅长的数学武器,抱着十年不晚的君子精神,对人工神经网络进行理论分析。1969年和佩帕特(Seymour Papert)出版《感知机》,指出罗森布拉特的感知机功能有限,甚至不能解决“异或(XOR)”这样的线性不可分问题。书中言到:“我们认为,证实(或者推翻)我们有关把感知机推广到多层的想法没有希望这一直观看法,乃是一个重要的研究问题”,有意暗示多层神经网络研究是浪费时间。既然人工智能发起人都这么说了,大量旁观者自觉抬不起头来,神经网络研究自此陷入低潮。更为可惜的是,两年后,罗森布拉特43岁生日那天遭遇船难,不幸逝世,两位校友之争戛然而止。
事实上,只要感知机从单层改为多层,就可以解决线性不可分问题,罗森布拉特及其他一些人也想到过,只是当时没找到有效的训练算法。1985年,戴维•阿克莱(David H. Ackley)、 杰弗里•辛顿(Geoffrey E. Hinton)和泰伦斯•索诺斯基(Terrence J. Sejnowski)将模拟退火算法应用到神经网络训练中,提出了玻尔兹曼(Boltzmann)机,算法具有能够逃离极值的优点,但训练时间过长。1986年,大卫•鲁姆哈特(David Everett Rumelhart, 1942-2011)、杰弗里•辛顿和罗纳德•威廉姆斯(Ronald J. Williams)在《自然》撰文,提出了多层前馈神经网络学习算法(即BP算法,类似思想之前多次提出),从理论上证明了只含一个隐层的前馈网络可以在闭区间上一致逼近任意连续函数,掀起人工神经网络研究第二轮热潮。然而,BP算法存在容易陷入局部极小、过拟合与样本依赖、收敛速度慢、网络结构选择依赖人工等问题,特别是实现复杂度高,利用当时的计算机难以模拟大规模神经网络。人工神经网络第二次热潮在90年代逐渐退却,1995年笔者读博士时,所在研究所博士生开题,有老师总结为“四小波,三分形,两模糊,一神经”,很好地反映了第二次神经网络热潮退却时的情形。
深度学习
历史进入新世纪。2004年,执着于神经网络研究的杰弗里•辛顿获得加拿大高级研究院(CIFAR)每年50万加元的经费支持,召集为数不多的同道,启动了“神经计算和自适应感知(Neural Computation and Adaptive Perception, NCAP)”项目。2006年,辛顿在《科学》发表论文,提出深度信念网络(Deep Belief Networks, DBNs),掀起了汹涌至今的人工神经网络第三次浪潮。从网络结构来看,深度信念网络仍然是传统的多层感知机,但增加了一个初始权值训练阶段:利用待处理的样本数据,采用受限玻尔兹曼机,以输出层重构输入层为目标,采用无监督的方法逐层训练,使得多层网络能够高效表达训练数据,一定程度上可以避免反向传播算法陷入局部极小的问题。由于这次浪潮的核心是多层网络(相对于浅层网络更深)的有效学习问题,往往用“深度学习”来指代。更纯粹地体现深度学习精髓的是自动编码器(Autoencoder),由深度学习另一位代表人物约舒瓦•本吉奥(Yoshua Bengio)进行了深入研究,采用无监督逐层训练的方法,可让多层神经网络有效表征训练数据的内隐结构。
2012年6月,《纽约时报》报道了谷歌大脑(Google Brain)项目。吴恩达和谷歌大规模计算专家杰夫•狄恩(Jeff Dean)合作,用1.6万台计算机搭建了一个深度学习神经网络,拥有10亿连接。向这个网络输入1000万幅从Youtube上随机选取的视频缩略图,在无监督的情况下,这个系统具备了检测人脸、猫脸等对象的能力。2012年10月,辛顿团队把深度学习用于图像识别,将ImageNet视觉对象分类错误率从26%降低到15%,引发深度学习的全球高潮。至今计算机识别图像的能力已经和人相差无几,人工智能成为互联网之后全球瞩目的热点。
神经网络第三次浪潮已经成为驱动人工智能新浪潮的主力。2016年3月,阿尔法狗(AlphaGo)综合深度学习、特征匹配和线性回归、蒙特卡洛搜索和强化学习思想,利用高性能计算(CPU+GPU)和大数据(16万局人类对弈及3000万局自我博弈),一举战胜围棋九段高手李世石,并在数月之内名列世界职业围棋第一位。更多深度学习解读:www.yangfenzi.com/tag/shenduxuexi
人工智能的快速进步吸引了全球目光,世界各国纷纷推出政策或计划推进相关研究,产业界投入也急剧攀升。比神经网络前两次浪潮幸运的是,计算机性能已经大幅提升。1957年,罗森布拉特仿真感知机所用的IBM 704每秒完成1.2万次浮点加法,如今超级计算机速度已经达到IBM 704的10万亿倍,通过软件模拟方式构造大规模神经网络具备了技术可行性,特别是通用GPU适合神经网络并行的特点,能更好地发挥神经网络的威力。
但是,以计算机为平台模拟实现神经网络只是过渡性的权宜之计,嫁接在计算机上的人工智能就像一头“半人半马”的怪兽。例如,AlphaGo就使用了1920个中央处理器和280个GPU,功耗达到了1兆瓦,是与之对战的李世石大脑功率(20多瓦)的5万倍。
智能之路
明斯基和罗森布拉特之争既是书生意气,更是两条技术路线之争。1955年3月,明斯基和麦卡锡还没开始酝酿人工智能创始会议时,美国西部计算机联合大会就举行了“学习机讨论会”(Session on Learning Machine),主持人正是神经网络概念模型提出者沃尔特•皮茨。讨论会的两位主角是奥利弗•赛弗里奇(Oliver Selfridge, 1926-2008)和艾伦•纽厄尔,他们都参加了次年举行的达特茅斯会议。赛弗里奇10年前开始跟着维纳读博士,从神经网络角度研究模式识别,却一直未获得学位,他在会上发表的就是这方面的文章。纽厄尔1954年在兰德公司工作,期间听了赛弗里奇用计算机程序识别文字和模式的报告,受启发研制了下棋程序,这也是他在这次会议上报告的内容。赫伯特•西蒙在兰德学术访问期间被这个下棋程序吸引,力邀纽厄尔到卡耐基梅隆大学商学院读自己的“在职博士”。两人一同参加了1956年的达特茅斯会议。1957年,纽厄尔获得博士学位,从此这对师生成为长期合作伙伴。皮茨在会议总结时认为,赛弗里奇和纽厄尔代表了两派观点:“(一派人)企图模拟神经系统,而纽厄尔则企图模拟心智……但殊途同归”,这为随后数十年人工智能“结构”与“功能”两条路线的交织斗争埋下了伏笔。
经典人工智能主张人工智能应从功能模拟入手,将智能视为符号处理过程,采用形式逻辑实现智能,故称为“符号主义(Symbolism)”或“逻辑主义(Logicism)”。符号主义学派初期过于乐观,赫伯特•西蒙1958年就曾预测计算机10年内就会成为国际象棋冠军。事实上,40年后“深蓝”才战胜国际象棋冠军。符号主义对能够形式化表达的问题(例如下棋、定理证明)有效,但很多事物(包括大多数人类常识)并不能显式表达,而且即使勉强形式化了,还存在与物理世界的对应问题。相比之下,视听觉等基本智能,看起来不如逻辑推理“高级”,但符号主义至今难以有效应对。想象、情感、直觉和创造等人脑特有的认知能力,符号主义更是遥不可及。
经典人工智能的潮起潮落,引起了对人工智能概念的大讨论,结果之一就区分出弱人工智能(weak AI)和强人工智能(strong AI)。强人工智能也称通用人工智能(Artificial General Intelligence, AGI),是指达到或超越人类水平的、能够自适应地应对外界环境挑战的、具有自我意识的人工智能。至今为止的人工智能系统都还是实现特定或专用智能,不像人类智能那样能够不断适应复杂的新环境并不断涌现出新的功能,因此都还是弱人工智能,或称专用智能(applied AI)。
20世纪80年代,经典人工智能式微,机器学习崛起。机器学习研究机器怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能,简言之,机器学习把人工智能的重心从如何“制造”智能转移到如何“习得”智能。机器学习有很多分支,其中部分与人工智能各个流派的基本思想有千丝万缕的联系,例如强化学习与行为主义、深度学习与多层神经网络。统计学习是机器学习十分重要的一部分,它基于数据构建概率统计模型并运用模型对数据进行预测和分析,因而被称为“贝叶斯主义”(Bayesiansim)”,或者更一般化地称为统计主义。机器学习跳出了经典符号主义的思想束缚,让机器自动从数据中获得知识,特别是新世纪以来,数据驱动的人工智能取得了巨大成功。然而,机器学习的模型仍然是“人工”的,因此仍有其局限性,期望这种“人工模型”能够产生通用人工智能,同样没有坚实依据。
进化主义(evolutionism)在20世纪80年代到90年代掀起人工智能的另一波浪潮。进化主义也称行为主义(behaviourism),思想源头是控制论,认为智能并不只是来自计算引擎,也来自环境世界的场景、感应器内的信号转换以及机器人和环境的相互作用。90年代,行为主义代表人物麻省理工学院的罗德尼•布鲁克斯领导研制的各种机器人就走出实验室,进入家庭(吸尘和洗地),登上火星。近年来,万众瞩目的机器大狗BigDog也是这一流派的力作,由麻省理工学院另一名教授马克•雷波特(Marc Raibert)领导。行为主义的重要贡献是强调环境和身体对智能的重要性。然而,就像心理学中行为主义由盛到衰一样,行为主义如果不打开“大脑”这个黑盒,仍然不可能制造出强人工智能,就像黑猩猩再训练也学不会说话一样,被训练的“智能引擎”如果不到位,训练得再多也没用。
与经典人工智能自顶向下(top down)功能模拟的方法论相反,神经网络走的是自底向上(bottom up)的结构仿真路线。其基本思想是:既然人脑智能是由神经网络产生的,那就通过人工方式构造神经网络,进而产生智能。因为强调智能活动是由大量简单单元通过复杂相互连接后并行运行的结果,因而被称为“连接主义(connectionism)”。从罗森布拉特的感知机,到当今如日中天的深度学习网络,人们提出了各种各样的人工神经网络,也开发出了越来越强的智能系统,但是,迄今为止的人工神经网络都过度简化,与生物大脑神经网络至少在三个层次还远远不能相提并论。首先,人工神经网络采用的神经元模型是麦卡洛克和皮茨在1943年提出的,与生物神经元的数学模型相距甚远;第二,人类大脑是由数百种不同类型的上千亿的神经元所构成的极为复杂的生物组织,每个神经元通过数千甚至上万个神经突触和其他神经元相连接,即使采用适当简化的神经元模型,用目前最强大的计算机来模拟人脑,也还有两个数量级的差异;第三,生物神经网络采用动作电位表达和传递信息,按照非线性动力学机制处理信息,目前的深度学习等人工神经网络在引入时序特性方面还很初级。因此,期望“人工”神经网络产生强人工智能,也还只是“碰运气”式的梦想。
如果说强人工智能是技术峰顶上闪耀的圣杯,那么符号主义、连接主义、进化主义和机器学习就是指向四条登顶道路的路标。然而,60年艰苦攀登之后,圣杯不仅没有越来越近,相反比出发时显得更加遥远。驻足沉思,突然发现横亘在脚下和圣杯之间的山谷日渐清晰……这个深不见底的山谷,就是我们自己的大脑。
这正是:
人工智能一甲子,结构功能两相争;
符号系统Top down,神经网络向上攻;
进化主义玩互动,机器学习调模型;
欲破智能千古谜,先剖大脑再人工。
作者:黄铁军,CCF杰出会员。北京大学教授,北京大学计算机科学技术系主任、数字媒体研究所所长。主要研究方向为视觉信息处理和类脑计算。
来源:《中国计算机学会通讯》2017年第1期《专栏》—电脑传奇(中篇)智能之争
·氧分子网(http://www.yangfenzi.com)综合整理报道
·氧分子网(http://www.yangfenzi.com)延伸阅读:
➤ 通用计算的前世今生与未来:将定律装进机器中,创造出一个世界
源码资本在2017年码会上宣布,前金山CEO张宏江博士加盟源码资本任投资合伙人。张宏江博士在2017年码会上分享了重磅观点“AI的本质与机遇”。
张宏江博士曾为前微软亚太研发集团首席技术官、微软亚洲工程院院长、金山软件CEO,是世界多媒体研究领域一流的科学家,是计算机视频检索研究领域的“开山鼻祖”,获得过IEEE(美国电气和电子工程协会)和ACM(美国计算机协会)两大计算机专业协会颁发的重大奖项,是第一位也是迄今为止唯一同时获此殊荣的华人科学家。
张宏江博士在2017年码会的演讲全文:
今天,我们从AlphaGo讲起。我们的议题包括这一波AI潮流的原因是什么,机器学习的驱动燃料——大数据的发展,深度学习的基本原理,AI技术的发展给我们的日常生活,给我们的创意以及工作带来什么样的影响。最后是投资AI领域有什么样的机会以及陷阱,尤其是陷阱我会多讲。
1
从AlphaGo说起AI潮流:
算法+计算力+大数据
典型的深度学习算法就是深层的神经网络;
AlphaGo在一场比赛中消耗的能量是人的300倍;
数据爆炸在过去十年改变了我们的生活。
这一波人工智能的热潮其实是从去年AlphaGo与围棋大师李石世对决开始的;虽然我从来不会下围棋,但我下了赌注赌AlphaGo会赢。
为什么我会下这个赌注?我们读过关于AlphaGo的文章,其实它是一个典型的深度学习的系统,它用了深度的神经网络,还用了深度学习里面的强化学习,半监督学习,还用了蒙特卡洛搜索的方法。
整体来说是经典的技术和新的机器学习算法结合在一块,从而能够提高算法的性能,使它的学习能力更强。通过增加深度学习网络的隐层神经元数目从而建立起很好的学习能力,吸收知识的能力。这是算法上。
其实在这个背后还有非常重要的两条,这是过去几十年计算机发展带来的结果。
第一条,互联网过去20年的发展带来了大数据,而且是高质量的大数据。以AlphaGo为例,在它跟李世石对局之前已经跟人类六到九段的棋手对决过一万六千多次,这个中间他获得了超过3000万的布局点,这个对于它的能力提高非常重要。它跟自己下棋的过程中又获得了3000多万个布局点,同时形成它的决策网络。这是我今天讲的重点,就是高质量大数据这一块。
第二条,高性能的计算资源。如果我们看一下最终AlphaGo拿出来跟李世石对局系统用了1920个CPUs,超过280个GPUs。这是什么意思?我们知道一个衡量围棋大师的标准是一到九段,而更细的平级是用ELO这个数。
用了1920个CPU,280个GPU以后AlphaGo的能力,ELO数,从一开始两千多到了三千多,我们看李世石的数字是3500个,其实已经相当接近了。正是因为有了高质量的大数据,有了高性能的计算资源,有了新的学习方法,使得AlphaGo能够轻松地战胜了围棋大师。而且我们说到一点是,当李世石艰苦赢了第四局之后,这个时候AlphaGo当天晚上又自己跟自己下了一百万次。
为什么这次AI的浪潮跟前两次不太一样?今天我们谈的AI其实谈的是大数据小的新的算法。计算资源这些年发展下来,随着摩尔定律的指引,计算性能增加是快速的成指数的增加,同时计算的成本也是随着指数往下走的,计算资源越来越强,价格越来越便宜,从而我们可以廉价地利用大量计算资源。
过去十年的另外一个根本性的变化,就是如果你自己不想买计算设备,你可以用云计算。我们看云那一块,大数据的处理能力在云计算的平台上已经以标准云服务的方式提供给大家,大家可以很方便低成本地使用。这是另外一个在计算方面的进步,根本改变了在机器学习只是在大公司来做的状态,今天小公司可以用云计算来做了。
回头来讲数据,这是我特别喜欢的题目。在AlphaGo之前,我就一直跟大家讲大数据,当然心里面是想推广金山云。但是大数据确实在过去十年内改变我们的工作、改变了我们的生活,改变了我们的思考。
IDC有过一个报告指出,在2013年的人类产生数据是4.4个ZB,到了2020年的话这个数字将会增加到44个ZB,增加10倍,年增长率是40%。今天每4小时沃尔马用户产生数据超过2.5PB,每天Twitter产生推文有5亿条,今天今日头条的用户请求超过60亿次,每天头条处理数据量超过6.3PB,这是每天人们产生的数据。假如说这些数据又有很好的跟踪和标注,这些数据可以驱动人工智能,驱动人工智能的算法。
2
大数据:机器学习的驱动燃料
人脸数据库的进步大大提高了计算精度;
Jim Grey的科研四范式:从观察、实验到计算模型,到数据推动的模型;
大数据正在成为企业AI的标配。
讲一个人脸识别的例子。
今天大家觉得人脸识别已经过关了,一系列的公司在人脸识别上做的比人的识别率还要高。这个功能在手机上也已经做的非常好。之前一个人拍了很多照片,开始找这些照片的时候就发现比较麻烦了,但现在你想找某一个人,可能需要记住什么时候照的照片。但更方便的是记住了和哪些人照的照片,通过识别人脸能使得找照片变得非常容易。这种功能是我们20多年前的梦想,今天在手机上就可以做成了。
这是我手机上的一个屏幕,我自己的照片,我太太的照片,小孩的照片都在这儿。以前我工作的老板雷军照片也在上面。我一点,所有雷军照片全都出来了。我想看某一个具体的照片,这是雷军和戴尔电脑创始人Michael Dell的合影,还有和Dell团队的其他人的合影。我们看到手机把这些人名字自动标出来了,这个人是谁,那个人是谁,以后他所有的照片进来就全部能够识别了。这个在今天的品牌手机上都提供了这种功能。
我20年前在惠普实验室申请过一个美国专利。这个专利的内容恰恰就是我刚才所说的那个整个流程:拍了新的照片以后把它的数据库照片进行比较,从而识别出这个人是谁。在20年前我们很清楚移动设备计算能力有限,我们觉得这个处理的能力应该是分布式的计算,今天我们叫做云。20年过去,现在恰恰把20年前的事情变成现实,这个中间可以说是算法的进步,也可以说是计算资源的进步。
我实际上想跟大家说是人脸数据库的进步。
在20年前做人脸的时候,我们手里面拿到几百个标准的照片,今天我们拿到上亿张的照片。最早90年代的时候你只有几百个人,几百张照片的数据库,90年代末2000年的时候到了上千张、上万张照片,从而可以看到识别率的提高。到了工业时代,也就是5、6年前谷歌、Facebook分别用深度学习的方法做人脸识别,做训练的数据量比以前增加了非常多,使识别精度增加。
当用户的数据大量增长的时候,同一个算法的识别的精度也在快速的成长。而且当我用的计算量,CPU用得多的时候。性能也有快速的提高。所以这再次证明了刚才的观点,数据本身可能比算法还要重要。或者说没有这么多数据的时候根本不可能想象深度的神经网络。
再难的事情到了中国人手里面就有改善,世界上没有任何一个地方像中国有如此多的摄像头,如此多的头像和身份证的照片,就形成了中国的优势。今天不是两亿张照片,是几十亿张的照片,上亿被标注的人。只有有了大量数据之后你才可以用深度神经网络,才可以把这些内容、这些信息提取出来。
今天人脸识别的这些公司已经远远超过了人眼识别率,而且在世界上走在前列。当你在一张照片跟数据库进行比较这个人是不是你的时候,这种精度已经到了万率级的误差。基本上用摄像头以及算法,在中国最好什么坏事都不要做,哪怕在你的汽车里面,在加油站的时候拍了一张你的手放在不该放的地方,很快就会被传播出来,识别精度如此之准确的。
一年多以前微软亚洲研究院的孙剑带领着团队用了152层的神经网络作出了超过人类的图象识别精度的算法。再次想跟大家验证的是,当我们模型复杂度刚刚开始增加,从8层到152层的时候,我们看到计算量增加,看到持续的训练数据的增加。在2012年8层神经网络的时候,相应的神经元超过65万个,连接超过6亿。152层网络的时候神经元到了2200万,因为有新的算法,但参数调整更加准确,因为它的连接可以看到有113亿,我们大脑里面神经元的突触链接应该是一百万亿的。
人工智能的进展在很大意义上是从原来的传统建模、制定规则到今天依赖于数据机器学习的根本转变。这种转变恰恰是因为我们今天有了数据,覆盖度越来越好,精度越来越高,从而我们对模型的依赖比较低了,或者是说再复杂的模型都有足够数据训练。
过去的传统AI的算法或者是神经网络之所以不能够达到今天的精度,很大程度上是因为我们没有非常好的数据,从而依赖于某种模型,依赖于某种算法。在今天,我们已经在很大程度上覆盖整个样板空间的时候,我们数据如此之大,从而使得我们原来非常困难的问题,今天解决的非常好。
不同的算法的性能会随着数据量变化产生的变化,当数据量增加的时候它的精度也在迅速提高。但是你可能会问一个问题,是不是现在我们有足够多的数据,从而我们人工智能就能够覆盖所有的场景?去年发生第一起特斯拉伤人的事件,说明即使特斯拉这样每天有几十万辆车在路上跑,但是数据依然不够,依然在有些情况下出现死人的事故。
如果做数据库的人不知道Jim Grey,那基本上不应该跟别人说是做数据库的。Jim Grey他在十多年前就提出了人类在做科研的四个不同的范式。过去最早的纯粹基于观察和实验,百年前的理论模型,几十年前开始的计算模型,到今天数据推动的模型。过去十年大数据进展非常快,大数据已经开始在企业里面大规模的进行运用了。
美国一个咨询公司调查了300家3000人以上的公司,基本上60%的IT公司都在使用大数据了,只是说使用层次不一样。最早期是统计发生了什么,后来分析发生的事情,到今天预测怎么样发生。未来,大数据将洞察什么样的决策是好的商业决策,再进一步的认知真正落实到行动上,也就是自我学习的能力了。
英特尔这样老牌的公司今天在疯狂并购做AI或者创作数据的公司,比如说两个月以前以天价并购了一家以色列公司Mobileye。原因很简单,英特尔认为汽车其实是人类生活中能产生大量数据的设备,这些数据能够帮助数据使用者给人画像、判断一些商业应用。而这一切产生的过程、处理的过程由英特尔控制,这意味着它控制了另外一个新的平台,这是为什么英特尔在这方面投入这么大的资本。
讲完了计算和大数据。再回到一开始的所说的算法的进展。
3
深度学习的基本原理
大数据驱动的深度学习方式,是机器自主学习;
深度学习第三次浪潮的特征:大数据+强计算+新算法。
AI做了60年,终于迎来了第三次浪潮,这次浪潮看起来比前面两次浪潮来得更猛烈,而且解决的问题比以前更多。很重要的是,我们用的深度学习的方式与传统的专家系统方式有很大的不一样。专家系统的方式是人总结规则,然后把规则交给机器,机器来开始利用这个规则面对使用场景。深度学习方式,大数据来驱动的是机器自己来学习的。好处是机器本身具有学习能力,所以可以较容易地从一个应用扩展到另外一个应用。
过去的十年,恰恰是深度学习迅速发展的十年。2006年Hinton在Nature发表文章,标志了深度学习这个词诞生。2010年随着大数据的爆发,深度学习热潮开始兴起。2012年Hinton这个团队用CNN模型以超过第二名10个百分点的成绩夺得当年竞赛冠军。到了2016年的AlphaGo,人们对深度学习的能力没有怀疑了,深度学习将会改变人类,这是一个新的时代的到来。
深度学习,到底是什么样的东西?神经网络这件事其实在第二次浪潮(80-90年代)就已经开始了,大家已经用过了,80年代-90年代初,神经网络泛滥的一塌糊涂。那个时候数据量不够,就是输入层、输入层、隐含层。另外一个根本改变是今天的设备、速率如此之强大。
为什么深度学习方法不一样了?首先是一开始的原理就是神经网络,类似大脑的思考原理。人类大脑大概有1000亿个神经元,在这些神经元之间有超过一百万亿的连接。神经元的数字还有连接的数字,是人智力很重要的标志。一个具体的神经元就是有一个核加上一个突触链,我们根据这种原理做模拟神经元。并且将它跟别的神经元的连接。经过一个非线性的函数,从而转成一个输出。输出的信号就是你所需要的结果。当神经元多了的时候,或者层数多的时候显然需要的训练数据就要更多。
为什么大数据实际上是深度学习驱动力?以前模拟系统来做的神经元,用物理模拟机器来做这个复杂度,不可能做到一亿的神经元,不可能做到一百万亿的连接。但是今天我们用计算机能够做到。深度学习是什么意思?很简单,深度学习就是层数比较多的神经网络。每一次训练你输出一系列的数据,当实际输出和目标函数有一定的差距,这个差距反馈回去再进行训练,这是整个循环的过程。
4
AI的发展与影响
AI的应用与未来:辅助人,代替人,超越人;
机器将造成未来社会出现90%的闲人,但机器难以替代资本家、艺术家和手艺人;
机器在感知上超越了人类,但在认知上还要5-10年。
讲完深度学习,我们可以想像当神经网络增加到152层的时候它的复杂性是什么样的增长。这种增长使得今天的AI,今天的机器学习不光是能够辅助人,而且很大程度上会代替人,未来还会在很大程度上超过我们。也许这是我们今天不愿意接受的。
未来AI会超过我们。到底怎么样超过?其实我们想象一下人工智能今天确实能够做很多人类能够做的事情。原因是为什么?人类可以像AlphaGo一样一晚上下一百万盘棋吗?能够像特斯特收上百辆的车同时收集数据并进行同时学习吗?这做不到。同样今天人类不可能对遍布于全国各个火车站,各个机场的数据同时进行处理,也就是说规模你也比不上。
人工智能会代替人、超越人是时间问题。不光是这样,机器学习在一些场景做的比人还好,因为人通过观察、通过思考判断出来的东西,人工智能通过学习很大程度上比你做得快。AlphaGo已经完全展示出了,人们在围棋这一点上是已经被人工智能打败了。
投资决策、政策、规划、战争沙盘推演这些很大程度都是靠经验的。今天从AlphaGo上看到的,人工智能在这些场景里都会超过人类,这是因为机器本身的自我学习的能力已经非常强大。像开车、滑雪、画画、拉提琴这些不可能通过看手册就能学会的事情,人工智能也已经超过了人类。其实我们自以为很了不起的东西,人工智能看的比我们要透彻。
前一段AlphaGo隐姓埋名跟人类下棋,世界排名第一名的柯洁下输了后感慨地说人类三千年的围棋文化只是接触了围棋的皮毛。我们以前下围棋,人类的思考实际上只是看到一个本地的最优解,不可能翻山越岭去看,但是AlphaGo可以看到山外还有山。是因为它的数据处理能力比我们强,所以它学到了这一点。人类以后再也不可能赢AlphaGo了。这就是残酷的现实。
举一个微软研究院的例子。在这个例子里,机器看到Stop Sign标志,会描述出这是在一个城市边上有这样一个标志,有红色,立柱,与交通相关等等标签。这个系统希望能看图讲故事,不是看图识字,是识图讲故事。
这里有另外一个例子:这幅照片是一位妇女在厨房准备食物。第一个描述是一个妇女在厨房准备食物。第二个描述写的是,一个妇女在厨房水台边上准备一份午餐或者早餐。第一个是机器学的,在这一点上机器已经超过了人。你可以说这个人不会讲故事,但是至少机器能够讲出比他还好的故事。当然了,这还是属于探索的阶段。
据说在AI的浪潮下最安全是考古学家。可是这个社会上考古学家也不需要太多,工资也不会太高。男怕入错行,女怕嫁错郎。随着这些的变化,未来哪些工作会被AI取代,社会将是什么样的?
全球化是在全球范围内寻找最廉价完成某一项制造的过程,于是全球化导致了两级分化,导致了跨国企业效率不断提高,也导致了包括美国在内发达国家蓝领工人的失业。AI是否会加剧这个趋势?
未来可能会有两种人,一种叫神人,一种叫闲人。问题是90%以上的是闲人,这怎么办?其实去年瑞士的国家有一个议员提出了,不管工作不工作每个人先发三千法郎,工作再拿另外的钱。瑞士人还是比较冷静,全民公投没有通过。未来可能只有三种人能够对抗AI,资本家是没有问题的,未来仍需要资本运作。另外就是艺术家和手艺人,这类技能机器暂时不能学过来的。当然大部分人很难做到这三种人。
人工智能的局限在哪儿?强AI(GAI)依然道路漫长。机器在感知上已经超过了人,但是认知可能还有5-10年甚至更长的路要走。
深度学习的方式,有没有问题?其实有一个很大的问题,事实上是人们给自己创造出来的一个问题。人工智能或者机器智能是机器通过观察体验来学习,机器本身可以对自己进行编程,程序员不再需要写命令解决问题,而程序会根据示例数据和期望输出生成自己的算法。
今天在很多领域已经往这些目标行进,第一个案例,比如Nvidia无人驾驶车,不是靠程序员指令走的,完全靠观察人的行为,观察人们开车的行为来确定自己驾车方法。第二个案例,在纽约一家医院开发了一套系统,叫做Deep Patient,医院只给了它70万个病例,然后这个系统从70万的病例中学习,通过数据发现规律,总结出了非常强的疾病预测能力,尤其患精神分裂症的预测能力远远超过了大夫。第三个案例,美国军方大量投入机器学习,为车辆和飞行器导航确定攻击目标,在大量数据中间挖掘出恐怖分子的一些信息,都已经远远超出了人们一开始的预期。深度学习已经具备了这样的能力,但是深度学习依然没有能够解释自己的行为。还是黑匣子。
人类历史上从来没有创造过这样一个机器,这个机器的行为和判断连人类都不能完全理解。今天我们创造了深度学习的机器不能判断和解释自己的行为,这就是今天我们感觉到不舒服的。人们反而问自己,我们自己作出了很多判断我们自己能够说清楚为什么做的吗?可是人类可以容忍自己的这种情况,但是不能容忍机器的这种情况。美国国防部就将机器学习的不可解释性定性为“关键的绊脚石”。
当然未来一定是说,人们需要跟机器不断合作。我们看动物到人的进化,其实智力进化的本质特征是进化到一个系统,这个系统连创造者都无法解释。今天我不敢保证上帝理解我们今天做的这么多的事情。为了这个担心,研究人员已经开始在进行一些分析,来试图理解或者跟踪这种决策的过程。
终级目标,机器和人到底有什么区别?
它比你来得快,比你大,某些能力比你还强。它和人类区别在哪儿?
求生本能,对于死亡的恐惧,这是机器没有的,这是定义出人和机器一个根本性的区别。人和动物的演化速度,一系列的求生本能,被打了会跑,避免疼痛,会食色,会有归属感。人类做坏事也是因为对死亡的恐惧,对欲望的驱动。机器本身目前为止因为它不惧怕死亡,所以也没有感情,没有感情是不是就不能说有智能呢?这是一个宗教问题,不是一个科学问题。
讲完了机器学习我们到此打住,我时间到了,很快讲一下AI投资的判断。
5
AI投资的机会与陷阱
在对AI投资的判断中,产业链包含:基础,技术,应用;
基础被巨头控制,技术层面能否出来一些公司依然存疑;
应用层要寻找能够大量产生数据的产业。
过去经验也告诉大家,每一波科技浪潮中会有一些平台性的公司。我们谈AI投资,到底投什么?就像我们谈PC的投资,谈互联网的投资我们是谈生态链。
在对AI投资的判断中,产业链包含基础、技术,应用。基础这个层面已经被巨头控制了,基础层有两大块:基本计算能力和数据。基本计算能力无论是谷歌还是微软,包括中国百度都已经把它作为SaaS服务提供出来了。技术这一块,没有数据能否成为一个平台?。在SaaS这一块,不是通用的SaaS,也许在SaaS应用这一块能够出来一些公司?这也是一个非常大的问号。
应用层中,AI其实是AI+这个场景,它是一种生产力提高的工具,会让所有以前的应用变得更加有效,当然你要找比较容易突破的。显然这个钱多和数据多的行业是最早发挥功效的地方。所以我们要找这个产业是不是大量产生数据,是否有这个数据能够不断拓展,不断创造价值,从而使得我们能够在这一里面把原有的生态进行改变。
如果说上一波是互联网,这一波是AI。大家要注意AI跟互联网的区别。最简单的可以说,AI发展到一年多以后我们就发现实际上是智能+。AI技术驱动,更加从垂直开始。因为技术本身发展的太快了,而互联网是商业模式创新,是全新的应用,赢家通吃在AI那一块未必行得通。
根据这个观察可以看一下今天AI投资的情景,今天AI显然是有很多泡沫,最大的泡沫我觉得是在估值公司。你去你找一家公司谈,每一家公司都说我自己是AI公司。真正看这家公司是不是AI公司,更重要的是它要有数据。能够不断有数据,它能够不断抢占数据的高低,这是我们的核心。
今日头条这家公司,之所以能够站稳,在过去五年之间突然出现,有它一个根本的原因,那就是信息的获取这个大的需求。今日头条在人工智能开始使用的时候迅速占领高地,它第一个用搜索的方法做了新闻推荐,从而它本身这个系统就是一个很大的学习网络,使得今天能够不断的演化,推荐的能力不断增强,从而在这个基础上对核心的能力进行突破。我们完全可以预测未来的今日头条就是一个超级的智能系统,同样我们看到了它的数据量是如此之大,它已经远远超过了一开始的文字到今天走向图象,走向论坛,走向直播,它其实所具备是不断增加的数据。
最后,AI的投资。如果你记住我刚刚所说的话就是三个投资点,第一是“智能+”,所有公司都应该具备的一种能力,而这个能力是它核心竞争力。第二,AI产业,包括自主开发、咨询服务、人工智能即服务AI-aas。第三,要有数据和人才。
人才、数据是核心,投算法本身就是投人,我前面谈到深度学习的训练需要人对于这个算法的理解并且掌握的训练的技巧,懂算法还要懂应用的人才是非常有价值的。另外,数据实际上是AI公司最终的护城河。
最后一点,给大家一个信息,就是AI这个领域里面中国人才是非常多的。高盛的一个AI报告指出,在过去的五年里面发表的跟神经网络和机器学习相关的文章里面,中国人作者的数量已经超过了美国,而且还持续增长。在引用的文章里面中国作者的数量也超过了美国,而且还在持续增长。所以至少我们在这个是里面中国人不少,数量多了之后以后自然就有强人。在人才这一块中国不差。
另外,中国发生的数据如此的巨大。也就是说中国有人才、有数据。所以AI这一块一定是中国创新和投资的新希望。谢谢大家。
北京正在加快建设全国科技创新中心。过去的五年,各种重大原创科技成果不断涌现,成为全国科技创新中心建设深入推进的巨大引擎。在中国共产党北京市第十二次代表大会上,蔡奇同志提出,要以建设具有全球影响力的科技创新中心为引领,着力打造北京发展新高地。为推动北京全国科技创新中心建设,首都网信智库、百度公共政策研究院、百度专利事务部联合推出此文,希望对北京创新科技进一步发展提供数据和研究上的支持,促进北京聚焦前沿技术转化,形成辐射拉动效应。
背景
2017年3月5日上午,国务院总理李克强在2017政府工作报告中提到,要加快培育壮大新兴产业,全面实施战略性新兴产业发展规划。包括新材料、人工智能、集成电路、生物制药、第五代移动通信等在内的技术研发和转化要求提速,并做大做强产业集群。这也是“人工智能”首次被列入政府工作报告。
人工智能已有60年的历史,近几年,全球产业界开始对人工智能进行高强度的持续投入,并产生了一大批诸如自动驾驶、AlphaGo、Master、微软小冰之类的人工智能标志性成果。
赛迪顾问发布的《洞见2017:新兴产业投资机会》白皮书中的数据显示:“2016年中国人工智能市场开始爆发,市场规模达239亿元。预计未来三年,人工智能市场将迎来新兴机遇点,到2018年,中国人工智能市场规模预计将突破380亿元,复合增长率为26.3%。”
2016年5月,国家发改委、科技部、工信部、网信办联合发布了《“互联网+”人工智能三年行动实施方案》,设定包括智能家居、智能汽车、智能安防等在内的七大工程。
在人工智能大量投入的同时,沉淀出很多科技成果,通过专利将沉淀出的科技成果加以保护,将对我国抢占技术战略、产品战略的制高点,也是抢占未来技术制高点方面迈出的重要一步。
数据洞察
北京市国内企业人工智能专利公开数量领先全国。在国家知识产权局的网站上,我国人工智能专利申请的数量超过7000件,北京、上海、广东为中国人工智能专利数量分布的三大中心,企业人工智能专利公开数量最多的企业为百度、腾讯、科大讯飞、华为、中兴通讯、奇虎360、小米、阿里巴巴等,涉及的技术内容有语音识别、图像识别、自然语言理解、用户画像、自动驾驶、云计算、移动终端的智能交互等,多数企业分布在北京,专利公开数量占全国总体数量超过60%以上,高于广东、上海等其他城市,位居全国第一。
北京市外资企业人工智能专利公开数量领先全国。在国家知识产权局的网站上,在我国的外资企业人工智能专利申请的数量较多的分别为微软、谷歌、亚马逊、苹果等,涉及的技术内容有语音识别、图像识别、自然语言理解、云计算、移动终端的智能交互等,在中国北京设置研发机构的微软数量超过800项,领先在华外资企业,北京市外资企业专利申请量占据全国的30%以上,位居全国第一。
北京市高校及科研机构人工智能专利公开数量名列前茅。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。我国对于人工智能的研究最早源于高校及科研机构,申请专利最多的高校为清华大学、北京大学、北京航空航天大学、哈尔滨工业大学、上海交通大学、浙江大学、北京邮电大学、北京理工大学、中国科学院下属研究所、中国科技大学等,其中北京的高校专利公开数量超过1000件,占全国高校人工智能专利数量的50%,位居全国第一。
北京市在人工智能重点领域专利公开数量名列前茅。
人工智能的重点领域为语音识别、图像识别、自然语言理解、自动驾驶、云计算等。
语音识别方面,中国公开专利最多的两家企业为百度和科大讯飞,这两家企业公开的语音识别专利数量接近全国总量的50%,高校在语音识别方面清华大学、北京大学、北京航空航天大学、北京邮电大学、上海交通大学、中国科技大学,北京企业及高校在语音识别方面公开专利数量占全国40%,位居全国第一。
图像识别方面,中国公开专利最多的企业为微软和百度,高校在图像识别方面公开专利较多的大部分为坐落在北京的高校,北京企业及高校在图像识 别方面公开专利数量占全国55%,位居全国第一。
自然语言理解方面全国专利公开数量最多的企业为:百度599件、微软139件;哈尔滨工业大学在自然语言理解专利方面成为一颗璀璨的明珠,公开了超过400件,领先于全国高校,其次为清华大学、北京大学、北京航空航天大学、中科院、中国科技大学,北京企业及高校在语音识别方面公开专利数量占 全国总量60%以上,位居全国第一。
人工智能人才储备
综合 AI 人才储备、相关岗位人才集中度等数据维度,百度目前暂时领跑国内人工智能人才储备量。脉脉数据研究院数据显示,百度和阿里两家公司的 AI 人才储备量均超过了总样本的 10%,百度以微弱优势领先。根据公开报道显示,2016 年百度在科研技术上投入超过 15 亿元,已集聚了 1500 位 AI 领域国际国内顶尖人才,其中大部分集中于百度研究院。
从 AI 人才的城市分布来看,北京、杭州、上海、深圳作为国内一线城市,云集了全国 9 成以上的 AI 人才,其中尤其以北京为甚,吸引了近 6 成的 AI 人才,或许与百度、滴滴、今日头条、微软等高科技互联网企业在人工智能的战略有关。
注:本文数据由脉脉提供,样本源受到脉脉的用户规模、分布和行业集中度影响
2017年2月,经国家发改委正式批复,首个国家级人工智能实验室,深度学习技术及应用国家工程实验室落户北京。实验室将由百度牵头筹建,清华大学、北京航空航天大学、中国信息通信研究院、中国电子技术标准化研究院等单位共建,推动我国深度学习技术及应用领域全面发展。
百度深度学习实验室杰出科学家徐伟,中国科学院士、北京航空航天大学教授李未等,也将和林元庆、张钹一起组成该实验室的领导团队,紧密合作,共同为实验室建设做出贡献。
近年来,百度在人工智能领域投入巨大,并取得国际领先的成绩。据悉,百度大脑语音合成日请求量突破2. 5 亿,语音识别率达到97%,人脸识别准确率高达99.7%。百度连续两年入选《麻省理工科技评论》评选的“ 全球十大突破技术”榜单,成为上榜最多的中国企业。
综上所述,北京人工智能专利申请及公开数量处于全国领先地位,北京不仅在高校科研机构专利申请量名列前茅,在企业专利申请数量也有着明显的优势。由此可以看出,北京建设科技创新中心有着雄厚科研实力和工业界实力,尤其是以人工智能为代表的科技类人才。2016年9月30日,北京市发布了《北京市“十三五”时期加强全国科技创新中心建设规划》,在这种大背景下,北京应大力支持人工智能发展,激发人工智能创新活力,将从四方面推动全国科技创新中心建设,力争到2020年使北京成为具有全球影响力的科技创新中心,支撑我国进入创新型国家行列。