XDA智能手机网 - 第一智能手机评述媒体
科技您的位置:首页 >科技 >

谷歌的DeepMind询问AI失败意味着什么

发布时间:2019-03-30 16:59:37 来源:

关于如何使人工智能“强大”地进行攻击并且不易发生故障的问题已经进行了多年的研究。然而,正如本周一篇来自谷歌DeepMind部门的博客文章所指出的那样,人工智能实际意味着失败的领域仍然存在。

对于某些人来说,缺失的元素似乎是显而易见的:如果有更多的人参与设置神经网络应该如何运作的边界条件,那将会非常有帮助。

研究人员Pushmeet Kohli,Sven Gowal,Krishnamurthy,Dvijotham和Jonathan Uesato一直在研究这个问题,他们确定了许多仍有待完成的工作,他们总结的标题是“迈向稳健和经过验证的AI:规范测试,强大的培训和正式验证。“

计算机程序的验证测试历史悠久,但这些方法“并不适合现代深度学习系统”。

为什么?在很大程度上,因为科学家们仍在了解神经网络遵循为其规定的“规范”意味着什么。并不总是清楚规范甚至是什么。

作者写道:“在AI系统中捕获'正确'行为的规范通常很难准确地说明。”

DeepMind研究人员观察到,“规范”的概念来自软件世界。它是计算机系统的预期功能。

正如作者在12月的一篇文章中所写,在AI中,可能不会只有一个规范,可能至少有三个。有一个“理想”规范,系统的创造者想象它可以做什么。然后是“设计”规范,明确针对神经网络优化的“目标函数”。而且,最后,还有“显示”规范,即实际执行的方式。他们称这三个规格,彼此之间可能有很大差异,包括愿望,设计和行为。

设计人工神经网络可以看作如何缩小愿望,设计和行为之间的差距。正如他们在12月的文章中写道的那样,“当理想规范与显示的规范不匹配时,即当人工智能系统没有做我们希望它做的事情时,就会出现规范问题。”

他们提出了各种测试和训练神经网络的途径,这些网络对错误更加健壮,并且可能更忠实于规范。

一种方法是使用AI本身来弄清楚AI的困惑。这意味着使用像Google的AlphaGo这样的强化学习系统,找到另一种强化学习系统失败的最坏方法?

作者在12月发表的一篇论文中做到了这一点。“我们学习了一种对抗价值函数,它根据经验预测哪种情况最有可能导致代理人失败。” 在这种情况下,代理是指强化学习代理。

“然后我们使用这种学习函数进行优化,将评估重点放在最有问题的输入上。” 他们声称该方法导致强化学习系统“对随机测试的大幅改进”。

热点推荐
随机文章