张宝峰认为,未来的人工智能发展,人和机器是共生的。我们需要将任务约束到特点的场景,计算机可以在人类的帮助下,适应场景并帮助人类工作。而在约束情况下将人工智能变成商用、可部署的产品,张宝峰提出了三大挑战。
2016 年 3 月 27 日,在“新智元超智能时代新书发布会、新智元智库成立大会暨新智元基金启动仪式”上,华为诺亚方舟实验室副主任张宝峰作了题为《人工智能的现实之路》的主题演讲。
张宝峰在演讲中提出了“受教式人工智能”(Educated AI,EAI)这一概念。“我们希望未来的人工智能人和机器是共生的,我们希望让机器更好辅助人,更好地完成任务。”张宝峰说:“我们希望人能够教会计算机解决具体问题,特别是复杂场景的具体问题。”他解释说,在很多时候,将问题约束于某一个特定的场景,人可以更好地感知场景,并靠经验预测场景中极限情况,不需要计算机进行完全通用普适的分析,这样会大大简化任务难度,减少对人工智能技术的依赖。
张宝峰表示,华为是一家设备和解决方案提供商,在人工智能领域更多考虑如何把人工智能带到产业实际的场景,可靠解决实际的问题,而受教式人工智能除了强调人教会机器解决任务,同时也强调应用智能(Educated Application Intelligence),目的是让智能技术为产业服务。
就如何在约束情况下将人工智能变成商用、可部署的产品,张宝峰提出了三个工作中遇到的挑战和问题:一是关联分析并不能代替因果推演,如果追求系统的智能性,一定会有决策和推理,这部分完全靠概率和关联分析是无法支撑;二是如何真正实现人机之间高效的知识传递;三是如何在确定场景约束下保证智能技术的可靠性和可用性。“如果我们在确定场景约束下实现99.9%的可靠性,”张宝峰说:“我认为这才是一个真正智能时代到来的标志。”
以下是演讲全文:
【张宝峰】大家下午好!十分荣幸站在这里,跟前面几位演讲者不一样,我既不是学人工智能的,也不是做人工智能的。从2012年华为成立诺亚实验室开始,新智元伴随我差不多走过了一半的时间、一半的历程,我非常喜欢这个平台和它的深度。但是,作为外行,今天我更想跟大家分享的是,经过4年时间的打磨,我们怎么理解人工智能对于产业的意义和价值。说实话,华为在人工智能领域是一个很不一样的企业,我们不是一个偏应用和服务的厂商,更多是一个设备和解决方案提供厂商。
我们是这么看人工智能的。首先,现在很多人在讨论,人工智能目前有强人工智能和弱人工智能的概念之分,但从我们自己产业解决方案出发的时候,我们考虑更多的是到底人工智能怎么样发挥作用和价值。从这几年的经验里面我们发现了一个很大挑战,就是对于复杂事件的识别,现在的人工智能技术是无法支持成熟的商业应用。举个例子,鱼缸换水这样一个简单的事情,阀门在哪里,每家的鱼缸阀门不一样,那么人工智能要如何在这些里场景使用?我们提出一个概念受教式人工智能(Educated AI),更多的强调的人具有普遍的认知和感知能力,人可以把很多事情直接告诉系统就够了,不需要机器努力的进行泛化学习,我们希望未来的人工智能领域里,人和机器是共生的状态,更多强调如何让机器更好地辅助人,更好地完成任务。比如说,只要人能知道开关是这个样子的,在这里打开开关就够了,而不需要计算机自己很复杂地判断才知道这是一个开关、那是一个控制器,这是一个这样的功能,那是那样的一个功能。我们强调EAI这个概念,是希望人能够真正教会计算机解决具体的问题。而这个具体的问题是什么呢?我们强调的是应用。我们认为在未来的场景里面,人工智能很多时候解决的问题是约束于某个确定的场景,这个约束带来的好处是大幅度简化了我们对人工智能本身的预期和期盼,只要能约束在某个具体的场景里面,我们就可以相对成本可接受的获取在所有场景里面可能遇到的各种极限情况,可以更容易或者说成本低廉地获取相关的数据集。在这个基础上人工智能技术才可以带来真正的价值,Application才是我们在产业里真正关注的东西——我们对用户提供什么?系统能不能变成可用的系统?最后的体现是在应用层面。我们希望通过这样两个基础的理念来指导我们人工智能的研究:一个是说把人在复杂事件识别判断的能力能够引入到未来的人机智能系统里面,人直接教会机器;另外则是把智能系统约束在某一个确定的场景里,大幅度简化我们对当前人工智能技术的依赖或约束。
举个例子,我来北京的时候,会按照开会的地点选某个酒店,基本上就在几家固定的酒店之间来回选。如果以后使用自动助手的话,我就可以非常明确地告诉我的助手,这次会议在哪里举行,我选择的是什么,这样系统就会知道我选择酒店的规则,这样的规则是当前个人助手能搞定的事情。我们想象另外一件复杂的事情,如果在家里面教小孩,小孩每天都在变,学习的东西也在变,这时候我该怎么引导他呢?这是我无法预先告诉计算机我都会有哪些潜在行为和选择的。那这时候该怎么办呢?我们就可以需求进一步简化约束某一个确定场景,比如某个系统就是教数学的、另外一个就是教化学的、还有就是教语文的,然后再约束在家庭的场景里面,我告诉它一遍我以前是怎么教的、现在应该怎么教,我就有可能把这个看起来可以实现小孩教育的智能系统实现出来了。
但这两个基础思考更多的还只是概念。所以今天我分享的与其说是我们做的事儿,不如说更多是一种倡议。大家都是做AI的,希望大家能真正沿着这条思路想一想,如何在约束情况下把当前的技术变成商用化、可部署的东西。
接下来我要讲的都是我们在这几年过程中所遇到的困惑,或者说挑战,也是我们希望和大家分享,邀请有志之士一起尝试去突破的东西。
第一个问题是大家一直在讨论并且广泛使用的关联分析。这是不是一个王牌,能不能替代因果推演呢?上面这张图是二战时美军对于飞机本身抗打击能力优化的一个图,红点表示了飞回来的飞机上能够采集到被弹孔击中的地方,这张图汇总了所有回来飞机上能搜集到的记录,红点比较集中区域,显而易见这些位置比较容易被击中。但当时一位上将说了一句话,基本完全颠覆了这个数据分析。他说,你们在取这些数据的时候拿到的全是飞回来的飞机,真正被击中的飞机全都挂掉了,而那些没有回来飞机上被击中的位置才是关系到飞机生死存亡的地方,应该有更厚的装甲去保护的位置。
在这样一种场景中,大家可以看到前面提到的问题——如果没有一个应用场景假设的时候,数据能不能足以支撑我们做决策?被击落飞机的数据无法取回,而在飞回飞机的数据基础上做再多精细的建模和分析也是有非常大的概率出现方向性偏差的。现在这个问题依旧存在。我们想要智能系统真正被用于商用、可部署之前,首先要解决的是数据充分性和整个业务场景的约束条件,如果没有这样的东西,我们估计永远不可能用关联分析替代因果推演来实现系统的真正自动化决策。因为因果推演能够做到的时候,结果是可以重现和确定的,系统往往就能做到比较自动化,甚至自主决策。但如果不能的话,哪怕是零点零几的失误,也是不可能做到自主决策。这就是我讲的第一个问题:在未来的人工智能体系里,如果能够约束场景和需求,就有可能真正实现基本完备的业务场景和约束下业务数据的获取,从而实现智能决策。
第二个问题,刚才第一个问题里也提到了,我们现在希望教计算机去做一些事情,在这一领域我们有过一些努力和尝试,大家基本公认计算机在相关分析方面比较强,而人在因果关系、复杂事件的抽象,还有常识理解上可能会更强一点。这两者的结合会很有效,但关键欠缺了一个最大的问题没有解决,那就是接口是什么?我们希望告诉计算机我们自己所能感知的、所能认知的知识和逻辑。但现在接口描述能力很有限,除了很有限的规则库、知识图谱和知识库等类似的机制之外,我们其实无法真正告诉计算机面向复杂事件,如何形成真正的知识体系。这个研究方向在业界里面也出现很多很有意思的研究,比如Rusland做的One-shoot-Learning,就是说让机器和人一样,能不能通过一次性的判断和体验就能够学会如何处理事情。还有现在美国也有些教授在做学徒制学习,比如说实现机器进行绳子打结的任务,让人先打一次(或几次)结,然后让计算机学会人是怎么做的。但目前在这些实现的场景计算机能够学会的任务还是非常非常有限的,而且人也不能正常、自然地告诉计算机人是如何解决复杂事件里的问题并完成任务,我并不能让计算机在自己的体系里面学会该怎么去解决类似问题。在这个方向上,我们认为“机器学习+人的教育”是非常好的一种模式。但是,缺少了如何真正让计算机理解人类社会所积累下的知识,当然按照EAI逻辑,我们也不认为需要把这个知识体系泛化到整个人类社会,最好约束到某几个确定场景里。来讨论如何去定义人机之间高效的知识传递。当然,如何真正把人机协同这个事情变成自然的模式,也是很值得大家深思的问题。
第三个问题也很重要,我刚才提到了一点点。上面展示的这张PPT,做网络的人可能比较清楚——“5个9”,这经常被院士所诟病,说电信整个高成本都构筑在这个追求0.001的可靠性上面了。5个9意味着一年的时间里,不管是你有意的、无意的、还是必须的,系统宕机不能超过5.39分钟。实际上电信系统里投入了大量工程师去解决整个系统的鲁棒性和性能可靠性设计。对比于电信网5个9的要求,互联网应用一般是3个9到4个9之间,但这个0.01的差别很多时候是生和死的差别。电信网络服务属于基础公共服务要求5个9,是因为在任何灾难发生的情况下,我们都要保证网络的可持续性,这是一个必需要实现的使命和要求,而在很多互联网服务里面可靠性并不需要提到这么高。
对比一下人工智能需要怎么办?下图是我搜集的ImageNet分类的统计数据,从2010年到现在6年的时间里,我们把准确率从71.8%提到了96%。但我相信,要从96%到99%可能需要更长的时间。这是只是很简单的通用分类任务,那么在实用的情况下我们又该怎么解决?
刚才科大讯飞的汪总也提到了,现在实验中比拼的准确率已经达到了96%到97%。但是,就在前几天我们总裁讲了他实际故事,他开车用语音拨打一个电话,叫了一个人的名字,结果半天没有应,不知什么情况拿起手机一看,结果就撞车了。
在产业化的智能服务中可靠性实际上是一个很重要的问题:一旦语音服务和识别精准度不能达到一个正常、自然可使用状态的时候,很可能导致灾难性后果。还有一个例子,当时我们在内部评测语音识别技术成熟度的时候,我们另一个总裁拿着手机跟我现场试了一下,用他的手机呼叫我的名字,当时是在一个比较安静的场景,在会议室里,呼叫了三次,结果只有一次成功,这也就是说成功率只有大约33.3%。这样程度的识别率是远远达不到我们应用系统实际需求的,而且这还不是复杂的应用场景,要是换做在公交站台、在比较嘈杂的市场里面,要真正做到所有的语音服务都有可以接受的、自然的体验,现在的技术能力仍旧是远远不够的。所以,我们如果现在追求的仅仅是尽可能提升算法本身准确度,这从学术和研究角度出发无可厚非,但我们更想听到业界同仁是怎么解决实际问题和任务。如果我们在一个确定的场景约束下能够实现智能系统99.9%的可靠性,我认为这才是一个真正的人工智能时代到来的标志。
虽然诺亚方舟实验室也是研究性质的组织,但更多会从产业角度来进行研究,我们希望考虑如何把人工智能带到产业实际的场景、解决实际的问题、具备实际应用需要的可靠性。
回顾一下,我们在研究过程中认为比较重要的3个问题需要解决:第一个如何真正实现因果性推演,而不仅仅是关联分析的问题;第二个如何真正让人和计算机能够高效进行知识传递和互动传递;第三个如何在确定场景约束下保证真正的可靠性和可用性。
这就是我今天的分享,谢谢大家!
【作者:张宝峰 整理:闻菲 来源:新智元(微信号:AI_era)】
·氧分子网(http://www.yangfenzi.com)延伸阅读:
霍金爷爷是不是把政治问题想得太简单了。
物理学家霍金重申了他的观点,人工智能带来了威胁和可能性。解决这个问题以及其他全球性挑战的方法,他的建议是成立世界政府。霍金在科学方面造诣很深,但在国际关系和政治哲学方面可能并不精通。世界政府自然是国际关系自由主义理论的一个重要愿景,然而要想在当今现实主义为主的国际关系背景下推动世界政府成立,谈何容易。不过,自由主义也好,现实主义也罢,这些都是比较传统的理论,即使是建构主义也未曾面对人工智能这样的新环境。或许,当有一天人工智能真的背叛人类的时候,在外力的作用下,人类会摒除嫌隙,建立世界政府。这也许是自然科学对于社会科学的促进和改变吧。以下是正文。
物理学家霍金可能是人工智能的一个支持者,但他也坦言,人工智能创造了一些潜在的挑战。在最近的一次采访中,他发出了类似的声音,并提出了保守派可能难以接受的解决方案。
在周一被授予伦敦城市荣誉自由奖后,霍金教授对《泰晤士报》表达了他对未来的乐观态度。但是,他补充道,他担心人工智能及其他全球性的威胁。他的答案则是:采取国际行动,最好是世界政府。
“我们需要更快地识别出这些威胁,然后在它们失去控制前采取行动。” Hawking说道,“这可能就意味着需要某种形式的世界政府。”
但是他警告说,这种做法“可能会导致暴政。”
随着人工智能在社会中的作用的增加,计算机科学家和政策制定者正在从构建这些系统转为利用它们的力量为社会带来利益。尽管观察者在关于人工智能相关挑战的性质和范围有所分歧,但人们普遍认为,这些影响需要解决。世界政府会提供一个解决方案吗?
“是的,我认为改善全球治理不仅可以应对先进的人工智能技术,对人类所面对的未来的一些其他挑战来说都可能是必要的。”牛津大学未来人类学院的创始主任Nick Bostrom教授在给《基督教科学箴言报》的电子邮件中写道,“当我们继续开发越来越强大的工具时,我不知道我们能否在和地球对抗的情况下一直生存下去。”
今天,人工智能似乎无处不在。它是自动驾驶汽车进步的原因,它支撑着Facebook的广告筛选过程,它通过虚拟助手与人们互动,像Apple的Siri和Amazon的Alexa。在纽约,它预测火灾;在英国,正在安排机器学习让人们支付他们的债务。Hawking曾指出,最终它甚至可以消除持久的社会挑战,如疾病和贫困。
但是观察者提出,这些独特的机会将带来独特的问题。一个问题是,关于当经济过渡到一个由机器主导的世界里将会变成什么样。
“有两个主要的经济风险:首先,工人的技能和未来工作场所所需要的技能之间可能会出现不匹配;其次,人工智能可能会因增加资产拥有者和一些高级技能工人的回报而加剧经济的不平等。”普林斯顿大学计算机科学与公共事务教授,信息技术政策中心创始主任Edward Felten在一封电子邮件中告诉《基督教科学箴言报》。
他认为这些问题可以通过采用分配提高生产力的公共政策来解决。
然而Hawking在他的评论中可能在暗指担心人工智能将变得过于强大,并开始以人类所无法控制的方式行动。但并不是每个人都相信科幻小说中的霸道机器会成为必然:Felten教授说他没有看到“计算机科学中有任何健全的基础能断定机器智能会在任何时候突然加速。”
未来今日研究所的创始人兼首席执行官Amy Webb正在更加认真地看待这些威胁。她向《基督教科学箴言报》解释道,人工智能的目标之一就是教会机器在“无监督学习”系统中自己建立连接。这意味着对这些人工智能系统做出正确决策的能力给予了很大的信任。她举了一个在教室里学习数学的学生的类比:
“如果错误地教学生一加一等于三,并且继续教下一组孩子,那么会发生什么?这个错误的答案会开始传播,而其他的决定都是基于这个知识。”
而这个风险要高于数学课的风险,她补充道:“我们将要求它们做出有关个人身份识别、安全性、武器部署及其他的决策。”
Bostrom教授将当今人工智能所面对的问题定义为“可伸缩的控制”:如何确保任意的人工智能技术与程序员的意图相匹配。”
这些评论员解释说,有一个很小但是正在增长的研究领域正在解决这些问题——并且世界政府或人工智能的法律的国际协调可能是一种方法。虽然Bostrom说他不希望“全球事务中出现任何迫在眉睫的转型”,但世界政府可能只是政治聚合的下一个阶段。
“我们已经走过了大部分路——从采集猎手,酋邦、城邦、到单一民族国家,到现在的国家和国际机构。”他写道,“我们还需要一次飞跃。”
Webb女士虽然赞同国际合作是有价值的,但是她怀疑它是否能及时解决眼前的问题。
“如果世界上所有的国家就人工智能的标准和使用达成一致意见,那会很棒。但目前而言,我们在连像气候变化这样的问题上都不能达成单方面协议。” 她指出。国际政府合作需要时间来追赶人工智能的发展,她说道。
因为人工智能变得越来越无处不在,政府决策也可能受到人类行为的意外变化的影响。技术政策研究所主席兼高级研究员Scott Wallsten在一封电子邮件中写道。
“基于人工智能的更安全的汽车会让人们更鲁莽地采取行动吗?比如因为他们相信车会自动停下来而去闯红灯。” Wallsten博士问道。
考虑到这一点,他提出,本地、国家或国际级别的有效的政策解决方案应该从更多地研究人工智能所带来的影响开始。
“任何解决措施都需要基于对问题的透彻理解。”他总结道。
翻译来自:虫洞翻翻 译者ID:盖里君 编辑:郝鹏程