AI 是一个非常重要和非常复杂的领域。但它并不是什么新事物,其实在上世纪 40 年代就开始引起广泛关注了。在过去的 70 多年,人工智能是如何一路发展过来的呢?让我们看看本文罗列的十个里程碑式的事件,就对人工智能的发展历史有了大概印象。
来源:微信“AI 前线”(ID:ai-front) 编译|刘志勇 编辑|Tina
神经网络的诞生 -1943
也许您对神经网络早有所耳闻。在机器学习和认知领域,人工神经网络(Artificial Network,ANN),简称神经网络(Neural Network,NN)或类神经网络。神经网络的构筑理念是受到人类神经网络功能的运作启发而产生的。许多复杂的应用(如模式识别、自动控制)和高级模型(如深度学习)都基于它,它是人工智能的底层模型。虽然像深度学习(Deep Learning)这样的概念相对较新,但它们仍然基于可追溯到 1943 年提出的数学理论。黄铁军:电脑涅槃之电脑之路、解析大脑、仿真大脑、超越大脑
1943 年,神经学家 Warren McCulloch 和数学家 Walter Pitts 合著了《神经活动中固有的思维逻辑运算》(A Logical Calculus of the Ideas Immanent in Nervous Activity),书中提出将数学和算法的结合,建立了神经网络和数学模型,模仿人类的思维活动。人工神经网络的大门由此开启。这篇研究论文后来还催生了 Google 。它对计算机科学的重要性就像甚或超过 PageRank 英文排名。黄铁军:计算机出世—你所不知道的电脑秘史 你应该知道的电脑未来
人工智能得名缘由 -1955
“人工智能”这个名词正式出现,最早是 1955 年 8 月 31 日由美国计算机科学家 John McCarthy 和他的同事 Marvin Minsky、Nathaniel Rochester 和 Claude Shannon 提出的,那是确立了人工智能这一研究领域的 Dartmouth 学院暑期人工智能研讨项目经典提议的一部分,这个提议名为《2 个月,10 个人的人工智能研究》(2 month, 10 man study of artificial intelligence)。黄铁军:电脑传奇智能之争,人工智能 神经网络 深度学习
1956 年 Dartmouth 会议被后世广泛承认为人工智能诞生的标志。会议上提出的断言之一是“学习或者智能的任何其他特性的每一个方面都应能被精确地加以描述,使得机器可以对其进行模拟。”这次会议上人工智能的名称和任务得以确定,同时出现了最初的成就和最早的一批研究者。
反向传播算法的出现 —1969
反向传播(backpropagation)有时缩写为 BACKPROP,是一种与最优化方法(如梯度下降法)结合使用的,用于训练神经网络的常见方法,在机器学习史上是重要的算法之一。它最早是 1969 年 Marvin Minsky 和 Seymour Papert 在《感知机》(Perceptrons)中提出,但直到 20 世纪 80 年代中期,才成为机器学习的主流。
反向传播要求有对每个输入值想得到的已知输出,来计算损失函数梯度。因此,它通常被认为是一种监督式学习方法,虽然它也用在一些无监督网络(如自动编码器)中。 它是多层前馈网络的 Delta 规则的推广,可以用链式法则对每层迭代计算梯度。反向传播要求人工神经元(或“节点”)的激励函数可微。
人机对话 —1966
近年来,人机对话交互技术成为人工智能的热点领域。众多业界公司相继推出了人机对话技术相关产品,如个人事务助理、手机助理、虚拟情感陪护机器人、娱乐型聊天机器人、智能音箱等等,并将人机对话交互技术作为其公司的重点研发方向。目前比较知名的产品有: Amaze 的 Alexa、 Google 的 Google Assistant、Apple 的 Siri 等等。百度顾嘉唯:智能人机对话和自动驾驶才是人工智能的核心场景
人机对话最早可追溯到 1966 年,麻省理工学院 Joseph Weizenbaum 在 ACM 上发表了题为《 ELIZA,一个研究人机自然语言交流的计算机程序》(ELIZA-a computer program for the study of natural language communication between man and machine)的文章。文章描述了这个叫作 ELIZA 的程序如何使人与计算机在一定程度上进行自然语言对话成为可能。Weizenbaum 开发了最早的聊天机器人 ELIZA,用于在临床治疗中模仿心理医生。ELIZA 的实现技术是通过关键词匹配规则对输入进行分解,而后根据分解规则所对应的重组规则来生成回复。简而言之,就是将输入语句类型化,再翻译成合适的输出。虽然 ELIZA 很简单,但 Weizenbaum 本人对 ELIZA 的表现感到吃惊,随后撰写了《计算机的能力和人类的推理》(Computer Power and Human Reason)这本书,表达他对人工智能的特殊情感。ELIZA 如此出名,以至于 Siri 也说 ELIZA 是一位心理医生,是她的启蒙老师。(“She was my first teacher!”、“…She was a brillant psychiatrist.…”)
奇点理论 -1982
想必你一定时不时在媒体上听到过“奇点”。何谓奇点?就是机器变得比人类更聪明的那个点。奇点的概念,最早是 1982 年 Vernor Steffen Vinge 在卡内基梅隆大学召开的美国人工智能协会年会上首次提出“技术奇异点”这一概念。1993 年,他在美国国家航空航天局路易斯研究中心举行的一次讨论会上发表了论文《技术奇异点即将来临:后人类时代生存指南》(The Coming Technological Singularity)再次简述了这个观点,论文同年刊载于《全地球评论》(Whole Earth Review)杂志上。在这篇论文中,Vernor Steffen Vinge 系统地阐述了自己的“技术奇异点”的理论,并声称超越人类智能的计算器将在 50 年之内问世,并把这次变化好比 200 万年以前人类的出现一样重大。正是这篇文章,使“奇点”的观点流行开来。曹政:奇点临近,我们和硅谷相比真的很惭愧
自动驾驶终于来临 -1989
自动驾驶似乎在这几年才频繁出现媒体上。世界上第一辆自动驾驶骑车是 Google 公司开发的吗?非也。自动驾驶汽车的展示系统可追溯至 1920 年代及 1930 年代间,但要到 1950 年代从出现可行的实验,并取得部分成果。第一辆能真正自动驾驶的汽车则出现于 1980 年代。1984 年,卡内基美隆大学推动 Navlab 计划与 ALV 计划,这个被人搁置多年的想法又卷土重来,再到 1987 年,梅赛德斯 – 奔驰与德国慕尼黑联邦国防大学共同推行尤里卡普罗米修斯计划。从此以后,许多大型公司与研究机构开始制造可运作的自动驾驶汽车原型。告别老司机,驶向新未来:无人车正在掀起一场交通革命
1989 年,美国卡内基梅隆大学的研究人员 Dean Pomerleau 就花费了 8 年的时间,研发出了一套名叫 ALVINN (Autonomous Land Vehicle In a Neural Network) 的无人驾驶系统,并用在了 NAVLAB 货车上,从宾夕法尼亚州匹兹堡到加州圣地亚哥行驶了 2797 英里,成功实现了自动驾驶,成为自动驾驶的祖师爷。虽然它的技术在今天来看非常原始,但是它证明了自动驾驶是可以实现的。
人脑的最后战役 -1997
1996 年 2 月 10 日,超级电脑 Deep Blue 首次挑战国际象棋世界冠军 Kasparov ,但以 2:4 落败。比赛在 2 月 17 日结束。其后研究小组把 Deep Blue 加以改良,1997 年 5 月再度挑战 Kasparov ,比赛在 5 月 11 日结束,最终 Deep Blue 电脑以 3.5:2.5 击败 Kasparov ,成为首个在标准比赛时限内击败国际象棋世界冠军的电脑系统。IBM 在比赛后宣布 Deep Blue 退役。曹政:AI是一场革命,不要笑我是认真的|20年后还有司机 收银员?
这是一场人类大脑和机器大脑的决战。尽管无疑 DeepBlue 处理信息的速度比 Kasparov 更快,拥有每秒超过 2 亿步的惊人速度。但 Deep Blue 的缺陷是没有直觉,不能进行真正的思考。这场比赛过程表明, Deep Blue 无穷无尽的计算能力在很大程度上弥补了这些缺陷,这也反过来让人们思考,什么是思维的本质?思维是神秘莫测的吗?
这一结果尽管可能并没有证明 AI 除了在有明确定义的规则的问题上表现出色之外,在其他问题是否也表现出色,但这仍是人工智能领域向前迈进的一大步。
AI 在 Jeopardy!节目大获全胜 -2011
就像 Deep Blue 与 Garry Kasparov 的对弈一样,2011 年,IBM 的 AI 面临着另一个巨大的挑战,IBM Watson 在挑战 Jeopardy!(美国一档电视智力竞赛综艺节目)的前优胜者 Brad Rutter 和 Ken Jennings ——冠军奖获得 100 万美元奖金。比赛结束后,被 Watson 碾压的 Ken Jennings 打趣说:“我,作为一个人,欢迎我们的新机器人霸主。”(I, for one, welcome our new robot overlords.)更多人工智能AI解读:www.yangfenzi.com/tag/rengongzhineng
Watson 是能够使用自然语言来回答问题的人工智能系统,由 IBM 公司的首席研究员 David Ferrucci 所领导的 DeepQA 计划小组开发并以该公司创始人 Thomas J·Watson 的名字命名。IBM 介绍时说“它是一个集高级自然语言处理、讯息检索、知识表示、自动推理、机器学习等开放式问答技术的应用”,并且“基于为假设认知和大规模的证据搜集、分析、评价而开发的 DeepQA 技术”。
AI 的认猫事件 -2012
以前,如果没有人类和大量现成数据的帮助下,人工智能甚至都不能分辨出猫的照片。但在 2012 年 6 月,Google 的研究人员 Jeff Dean 和 Andrew Ng 用 1.6 万块电脑处理器构建了全球最大的电子模拟神经网络,并通过向其展示自 YouTube 上随机选取的 1000 万段视频,考察其能够学到什么。结果显示,在无外界指令的自发条件下,该人工神经网络自主学会了识别猫的面孔。该成果表明 Google 在人工智能领域已取得重大进展。
AI 打败围棋世界冠军 -2016
2016 年 3 月,Google DeepMind 的 AlphaGo 在四场比赛中击败了围棋世界冠军李世乭。全世界有 6000 万观众观看了这场比赛。这是一个具有里程碑意义的事件,因为围棋中可能的落子位置数目比宇宙的原子总数还要多,把围棋所有的状态用穷举法全部列出大概需要 10¹⁷⁰(相比之下国际象棋只有 10⁴⁶),因此,围棋也被认为是人工智能攻克信息完全博弈游戏最后的堡垒。相比 1997 年 IBM Deep Blue 的暴力博弈树遍历而言, Deep Blue 的胜利只是硬件速度的胜利和计算机的胜利。AlphaGo 今天的胜利才真正是人工智能的胜利,它标志着真正人工智能时代的开启。AlphaGo之父戴密斯·哈萨比斯:除了下围棋,AI还要塑造人类未来
·氧分子网(http://www.yangfenzi.com)延伸阅读:
➤ 《自然》论文详解:AlphaGo 背后的深度神经网络和树搜索
➤ 棋盘上打败人类的不止深蓝和AlphaGo!图灵、香农、冯·诺依曼
➤ keso:火火火,我看2016年|共享出行、AlphaGo、三星、乐视
➤ 达闼科技黄晓庆:从《星际迷航》到奇点临近,在科幻中遇见科学
➤ 未来论坛2017年会-专访余凯:重构人工智能处理器已成业界共识
➤ 高红冰:BAT时代终将过去,人工智能、大数据正催生新独角兽
➤ 从概念提出到走向繁荣:人工智能AI、机器学习和深度学习的区别
·氧分子网(http://www.yangfenzi.com)综合整理
作者:肖璟,连续创业者,曾供职于麦肯锡金融机构组、小赢科技。互联网金融跨界人士,著有畅销书《风口上的猪》。本文来自:解题者 ( ID: imjietizhe )。
前天晚上,我受邀去参加了Linkedin中国和IBM的一个A.I.(Artificial Intelligence,人工智能)主题报告发布活动。
中间有一个环节蛮有趣的 — 主办方邀请《奇葩说》的辩手们讨论一个辩题:“职场人士,是否需要恐惧A.I.?”
双方唇枪舌战,甚是精彩,最后王强老师得出个结论:无论恐惧不恐惧,如果不想那么快就被A.I.取代,我们需要积极迎接变化,才能保持自己的竞争力。
那么问题就来了,身处A.I.时代,我们要保持竞争力,该从哪方面下手呢?
01
未来该发展哪些核心竞争力?
要回答这个问题,我们要先看看,你究竟是和谁在竞争?
你的竞争对手有可能是其他人,也有可能是A.I.。我们一分为二来看好了。
1. 与其他人的竞争
胡渐彪老师提到:A.I.技术让人与人之间的能力差距在缩小。
比方说老司机,过往有经验的司机师傅之所以牛X,很大程度是因为他们认路。而导航APP普及后,老司机们的这个优势也就不复存在了,跟新手司机也没啥大区别了。
“老司机”们的优势确实会逐渐丧失。不过人与人之间还是会有能力层面的差距,只是这种差距会慢慢体现在其他方面 — 新技术的应用能力。
丛林法则还是起作用,环境变了,适合生存的能力不一样罢了。
每次技术迭代,技术都会改变我们所处的环境,进而改变了人与人之间差距所在的维度。比方说摄影,过往牛X的摄影师要精通暗房洗照片那一套,而现在,正片负冲啊什么的,一个滤镜按钮就搞定了。摄影的核心竞争力变成图像处理软件使用的熟练度。
在A.I.时代,我们与其他人的竞争自然也变成了A.I.操作能力的竞争,谁用得熟练,谁自然就有竞争优势。
当然,除了与其他人竞争,有可能我们还要跟A.I.竞争——
2. 与A.I.的竞争
如果哪天A.I.可以自主运行,那人类是不是就要丢饭碗了?
被A.I.替代似乎不是距离我们很遥远的事。前段时间看到一个新闻,投资银行Goldman Sachs的纽约办公室原来的600多个交易员现在只剩下两人,起因是他们研发了一套自动交易算法。
是不是很有危机感?那,有没有哪些核心竞争力是人类独有、A.I.取代不了的呢?
别担心,还真有。
A.I.的定位是人类大脑的外包,用来解放我们的脑力劳动、代替我们思考。
而回归A.I.目前的发展,大部分的应用仅仅是在思考速度上完虐人类。但在思考质量上,A.I.还远没有达到人类水平。
思考质量其实就是思考的等级。
类比一下,就像你玩角色扮演游戏,你的攻击速度是别人的100倍,但你一次只能造成1点伤害,对方一次攻击能造成10000点伤害,这个1与10000的区别,就是质量上的差别,你的速度再快也会被对方秒杀。
比如人类和猩猩就有思考质量上的差别 — 人类大脑有些独特的认知模块,让我们可以用复杂的语言沟通、让我们可以做抽象思考。猩猩则没有这些模块,就算把它们的思考速度加快到超越人类数倍,他们还是无法理解抽象概念。
那,思考质量最重要的是什么?
我们不妨先看看思考流程图,思考一般分为归纳(induction)与演绎(deduction)两种:
归纳过程是输入阶段,决定思考质量的是提炼能力;
演绎过程是输出阶段,决定思考质量的是应用能力。
输出后你会得到反馈,反馈又会成为你的输入,形成一个闭环。
接着,我们便来详细介绍下这两种A.I.短期内无法替代的能力。
– 提炼能力 –
当你把外部资讯内化(internalize)为自己的一部分时,势必要经历归纳的过程,而提炼能力往往决定着你归纳结果的质量。
我们可以一步步把数据提炼为信息,把信息提炼为知识,再把知识提炼为智慧。
DIKW金字塔,上述例子省略了部分补充论据,仅供示意
A.I.也可以做到提炼。比如用数据挖掘(data mining)的方式从大量数据中提取信息,但提取出来的只是信息和知识,还没办法达到智慧的层面。
如果说从数据提炼信息、从信息提炼知识可以帮我们do things right,那么从知识提炼智慧可以帮到我们的是do the right things。
– 应用能力 –
说完归纳,我们来聊聊演绎。
演绎过程中对已有知识的应用并不难,难的在于举一反三的应用能力。
在麦肯锡工作时,一开始我做的大多都是金融机构组的项目,积累了不少金融行业的方法论。而后做房地产等其他行业项目时,发现很多方法论其实跨领域也是相通的。
而且金融行业的一些常见方法论,却不是其他行业从业者所熟悉的,举一反三往往可以出奇制胜。
而聪明人往往可以在多个领域都做到极致,举几个跨界的案例:
比如好友S,他总是自诩为“学会计里头最懂产品的(在美国出版过一本产品书籍),学产品里头最懂技术的(任职某投行CTO),学技术里头最懂会计的(大学专业会计学,且以一级荣誉毕业)”…
再比如《思考,快与慢》的作者Daniel Kahneman本职是普林斯顿大学的心理系教授,却获得了诺贝尔经济学奖…
还有最著名的跨界人士达芬奇,拥有一堆抬头:画家、天文学家、发明家、建筑工程师…
举一反三的应用能力仍是人类思考质量上特有的,A.I.暂时还做不到。
稍微总结一下,身处A.I.时代,我们在面对其他人的时候,核心竞争力应体现在A.I.操作能力;我们在面对A.I.的时候,核心竞争力应体现在提炼能力与应用能力。
搞清楚了我们该往哪些方面努力后,我们来看看下一个问题:
02
如何提高核心竞争力?
针对前述的能力,我也有一些落地的方法可以分享给大家:
1. A.I.操作能力
A.I.操作能力属于技能的一种,而技能的评价标准是熟练程度。熟练程度与使用程度成正比。
换句话说,越早用A.I.的人、用得越频繁的人自然就越用得越溜。
这不得不提 Everett Roger 的创新扩散理论:
根据该理论,不同的人接受创新的速度是不一样的。
不懂A.I.技术的我们或许没法成为那前2.5%的创新者(innovators),但我们可以保持好奇心,尽可能成为早期使用者(early adopters)。
个人觉得在这方面有3点可以做的:
一是多看看科技博客:TechCrunch、36氪、钛媒体、PingWest等等;
二是多更新硬件设备:不特指A.I.设备,比如不少人总会买最新一代的iPhone,甚至去kickstarter等众筹网站买一些创新硬件;
三是多和技术领域大牛聊天:看看最近圈里有哪些新的技术趋势。
2. 提炼能力
对于很多人而言,读书的效果并没那么立竿见影。
套用前述的DIKW金字塔,这完全是因为,大多人读书时,对于资讯的接受还停留在数据和信息层面,压根都没有往知识或智慧的层面提炼。而提炼能力,是可以通过知识内化练习提高的。
这个练习分3步:
步骤1:读书
可以适当地通过读书笔记记录重点内容。
步骤2:复述
我们读完书、听完课后,可以尝试用自己的语言复述你学到的知识架构和主要观点。可以对着镜子自己复述,也可以对着你的朋友。
步骤3:内化
聪明人往往有自己的既有知识体系。他们可以很快地把新接触的信息、知识内化为自己知识框架里头的一个分支。
在内化的过程中,如果发现所学的新知识与既有知识体系有冲突,需要进一步辩证地思考、判断。
不断重复“读书 – 复述 – 内化”这个知识内化过程,便可以锻炼你的提炼能力。
3. 应用能力
分享1个简单的锻炼应用能力的方法:解题训练。
这是前几天和好友Z一起吃饭,他分享的方法(顺带一提,这哥们是福布斯的 30 under 30 Asia 其中之一)。
他每天饭后会抽1到2个小时做这个思考训练:
一个人找个空旷的地方散步,选择一个自己以前从没系统性思考过的问题,不一定和自己的工作相关,可以是跨行业的,也可以是生活方面的。
我这一系列文章其实也是一样的思路。毕竟,你很少会看到一个咨询出身、做互联网金融的人,用纯理性思维写情感类文章,而且还在知乎被一堆人咨询情感问题。
稍微回顾一下,以下是我们的竞争力发展方法总结:
接下来的部分我要开开脑洞,如果对人工智能不感兴趣的朋友们欢迎直接跳过。
我不懂人工智能技术,以下内容仅供开脑洞,不喜可喷。
03
A.I.的思考质量有可能赶超人类吗?
人工智能被分为3种:
大家不难发现,前面的讨论其实我们都没有跳出弱人工智能范畴。
不过根据科学家预测,2040年前后强人工智能就有可能会实现。
那么,如果人工智能的思考质量真的赶超人类,达到强人工智能甚至超人工智能,那会有怎样的可能?
可能性1:与A.I.的融合,迈向永生
其实我更愿意相信我们会跟A.I.融合,变成像《攻壳特工队》里头的半机器人。
先别忙着抗拒,其实我们现在已经算是半个机器人了。
你想想,现在我们每天的生活离得开手机吗?你需要用它来导航叫车、点外卖、查餐厅位置…手机已经变成你身体的一部分,其实你就是半个机器人。
随着我们慢慢的A.I.化,未来我们可能会变成像《超验骇客》(Transcendence)里的Johnny Depp那般,变成了完全的A.I.,可能会有另一个可怕的结局可能会出现:统一意志。
这也是不少科幻作品对人类社会最终形态的一个解答。
我们的输入是人类社会能接触到的所有信息,我们的逻辑是求解最优解的统一逻辑。输入一致、计算逻辑一致,输出自然也会是一致的。
可能性2:灭绝?
这么负面的可能性我就不多说了,这里推荐一个知乎回答《为什么有很多名人让人们警惕人工智能》。不少哲学家关于这个可能性的思考,引人深思。感兴趣的读者可以移步知乎了解。
参考文献:
[1] Tim Urban, , Waitbutwhy, 2015
[2] Jennifer Rowley, , 2007
[3] Everett Rogers, , 1962
在收到的48个回答中,有两位读者全部答对,真的是非常厉害啦!
今天,就让我们一起回顾一下题目,并看看正确答案的解释吧!
1、人工智能历史上第一个战胜人类的棋类游戏是?
A、国际象棋
B、围棋
C、西洋双陆棋
D、四国军棋
1979年,由Hans Berliner(1929-2017)开发的一个西洋双陆棋程序,以7:1的成绩击败了当时的世界冠军Luigi Villa。创下了计算机第一次在智力游戏中击败冠军级别人类竞争对手的历史。
2、ImageNet的模型中AlexNet的作者中有下列哪个人物?
A、Geoffrey Hinton
B、Yushua Bengio
C、Yann Lecun
D、Andrew Ng
ImageNet大规模视觉识别挑战赛被誉为计算机视觉乃至整个人工智能发展史上的里程碑式的赛事。2012年,Alex Krizhevsky、Ilya Sutskever和Geoffrey Hinton创造了一个大型的深度卷积神经网络,也即现在众所周知的AlexNet,赢得了当年的ILSVRC,这是史上第一次有模型在ImageNet 数据集表现如此出色。
3、现在在机器学习中常用的长短时记忆模型(Long Short Term Memory)是在哪一年提出的?
A、2017
B、2007
C、1997
D、1987
LSTM模型于1997由Sepp Hochreiter和Jürgen Schmidhuber两人提出,于2000年被Felix Gers小组优化。长期短期记忆(LSTM)单元是用于递归神经网络(RNN)层的建筑单元。由LSTM单元组成的RNN通常被称为LSTM网络。
4、亚里士多德常说 “自然界选择最短的道路”,这在机器学习中常被称作?
A、奥卡姆剃刀原理
B、没有免费的午餐
C、经验风险最小化原理
D、炼丹原理
奥卡姆剃刀定律又称“奥康的剃刀”,它是由14世纪逻辑学家威廉(William of Occam)提出。这个原理称为“如无必要,勿增实体”,即“简单有效原理”,“切勿浪费较多东西去做,用较少的东西,同样可以做好的事情。” 这个原理最早至少能追溯到亚里士多德的“自然界选择最短的道路”,亚里士多德在相信实验和观测并无必要上走得太远。
5、卷积神经网络起源于哪个任务?
A、图像识别
B、机器翻译
C、个性化推荐
D、语音识别
卷积神经网络(Convolutional Neural Network,CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。它包括卷积层(convolutional layer)和池化层(pooling layer)。CNN主要用来识别位移、缩放及其他形式扭曲不变性的二维图形。
6、OpenAI设计的人工智能在以下哪个电子游戏中击败了人类顶级玩家?
A、Dota
B、LoL
C、炉石传说
D、守望先锋
2017年8月12日由OpenAI所训练的一款人工智能算法在著名的电子竞技游戏Dota2国际邀请赛The International中,参与了1V1比赛环节,并压倒性的击败了顶级电子竞技选手Dendi。
7、世界上第一位女性程序员的名字是?
A、Anne Hathaway
B、Ada Lovelace
C、Alexandrina Victoria
D、Jane Austen
Ada Lovelace是著名英国诗人拜伦之女,数学家,计算机程序创始人,建立了循环和子程序概念。她不仅是第一个女程序员,而且还是历史上公认的第一个程序员。为了纪念Ada, 微软亚洲研究院成立了Ada Workshop,用以助力心怀科技梦想的女生更好地留在计算机行业,并在不久的将来成为行业领导者。
8、机器学习历史上著名算法SVM,从算法提出到算法标准化,经历了多少年迭代?
A、10年
B、20年
C、30年
D、40年
1963-1993年。在机器学习中,Support Vector Machine(SVM)是基于统计学习理论的一种监督学习模型。最原始的SVM算法于1963年由Vladimir N. Vapnik和Alexey Ya. Chervonenkis发明。1992年,Bernhard E. Boser, Isabelle M. Guyon以及Vladimir N. Vapnik提出了一种非线性分类方法。现行的SVM标准于1993年由Corinna Cortes 和 Vapnik提出。
9、以下机器学习领域的著名人物中哪位获得过图灵奖?
A、Leslie G. Valiant
B、Michael I. Jordan
C、Vladimir Vapnik
C、Robert Schapire
Leslie Gabriel Valiant是一位英国计算机科学家,于2010年获得图灵奖。图灵奖(A.M. Turing Award),由美国计算机协会(ACM)于1966年设立,又叫“A.M. 图灵奖”,专门奖励那些对计算机事业作出重要贡献的个人。其名称取自计算机科学的先驱、英国科学家艾伦·麦席森·图灵(Alan M. Turing)
10、著名的图像处理ImageNet挑战赛始于哪一年?
A、2009
B、2010
C、2011
D、2012
ImageNet大规模视觉识别挑战(ILSVRC)是一个竞赛,也是计算机视觉乃至整个人工智能发展史上的里程碑,研究团队在给定的数据集上对其算法进行评估,并在多个视觉识别任务中争取更高的准确性。2009年,普林斯顿大学计算机系研究人员在CVPR上首次提出该数据集;2010年,第一届ImageNet挑战赛开始;2017年7月,计算机视觉顶会CVPR 2017同期举行的Workshop——“超越 ILSVRC”(Beyond ImageNet Large Scale Visual Recogition Challenge)宣布IamgeNet大规模视觉识别挑战赛将于 2017 年正式结束,此后将专注于目前尚未解决的问题及以后发展方向。
11、人工智能之父艾伦.图灵在二战时期破解的密码机名称是?
A、Enigma
B、Sigaba
C、Typex
D、Siemens
艾伦·图灵是在二战中帮助英国破解Enigma密码的最大功臣。Enigma是一系列相似的转子机械的统称,它是一个由德国人亚瑟·斯雪比尤斯发明的密码机。Enigma在1920年代早期开始被用于商业,也被一些国家的军队与政府采用过,在这些国家中,最著名的是第二次世界大战时的纳粹德国。
12、AlphaGo Zero比AlphaGo多了以下哪项技术的支持?
A、残差神经网络
B、生成式对抗网络
C、并行计算
D、增强学习
2017年10月19日,谷歌下属公司DeepMind报告新版程序AlphaGo Zero:从空白状态学起,在无任何人类输入的条件下,它能够迅速自学围棋。AlphaGo Zero在DNN网络结构上吸收了最新进展,采用了ResNet网络(深度残差网络)中的Residual结构作为基础模块。ResNet使用的Residual结构比GoogLeNet使用的Inception结构在达到相同预测精度条件下的运行速度更快。深层残差网络(deep residual networks)系统在微软亚洲研究院成功诞生,它实现了惊人的152层,比以往世界范围内的任何系统都深5倍以上。它还使用了一个全新的“残差学习”原则来指导神经网络结构的设计,残差学习最重要的突破在于重构了学习的过程,并重新定向了深层神经网络中的信息流。残差学习很好地解决了此前深层神经网络层级与准确度之间的矛盾。2015年12月10日,微软亚洲研究院视觉计算组的研究员们凭借深层神经网络技术的最新突破,以绝对优势获得ImageNet计算机视觉识别挑战赛图像分类、图像定位以及图像检测全部三个主要项目的冠军。