有没有可能人工智能的某些实例并不像我们想象的那么智能?
称之为人工智能。
一组计算机研究生报告称,对数十种被誉为人工研究里程碑的信息检索算法进行更深入的研究,实际上远没有所宣称的那样具有革命性。事实上,在这些算法中使用的人工智能通常只是对先前建立的程序进行了微小的调整。
根据麻省理工学院研究生戴维斯·布拉洛克的研究,在他的团队检查了通常被认为优于早期成果的81种发展神经网络的方法后,该团队并不能证实实际上已经取得了任何进步。
“写了五十页,”布莱克洛克说,“很明显,现在的技术水平甚至都不太明显。”
大部分功劳人工智能在过去的十年中进步在于改善图形处理器等硬件,计算机处理单元和相机的指数增长,允许复杂的搜索项目,面部识别,摄影、语言翻译和语音识别以及突破更加奇妙的可视化虚拟现实的游戏。算法的改进当然也有帮助。
但麻省理工学院的研究小组表示,至少人工智能算法的一些改进是虚幻的。
例如,他们发现,对建立已久的人工智能算法进行微小调整后,旧程序基本上和那些被高度吹捧的“新的和改进的”程序一样有效。在一些情况下,新的人工智能模型实际上被发现不如旧的方法。
《科学》(Science)杂志上的一篇文章对这项研究进行了评估,文中引用了一项对搜索引擎在2019年过去十年中使用的信息检索算法的元分析,发现“最高纪录实际上是在2009年创下的。”另一项关于流媒体服务使用的神经网络推荐系统的研究表明,7种方法中有6种没有改进几年前设计的更简单的算法。
Blalock指出,在比较算法时所使用的技术存在不一致性,这使得一种方法比另一种方法更好的说法的准确性值得商榷。
麻省理工学院(MIT)的一位计算机科学家表示,事实上,过去10年人工智能某些领域明显缺乏重大进展,主要原因在于无法恰当地比较和评估不同的方法。Blalock的博士顾问John Guttag说:“这是老生常谈,对吧?如果你无法衡量某件事,就很难让它变得更好。”
卡耐基梅隆大学(Carnegie Mellon University)的计算机科学家齐科•科尔特(Zico Kolter)推测,将自己的名字与一种新算法联系在一起,比仅仅对旧的、已建立的方法进行修补和调整,具有更大的动机和社会回报。
他研究了图像识别模型,这些模型被编程来抵抗所谓的黑客对抗性攻击。这种攻击使用经过细微修改的代码来绕过系统安全性。早期的一种名为投影梯度下降(PGD)的方法通过训练人工智能系统来区分真实和虚假的代码示例来抵御此类攻击。它被认为是一种合理的方法,但据说会被更新更好的协议所绕过。然而,Kolter的研究团队发现,对旧的PGD方法做了一个简单的调整,使得它与新方法的有效性几乎无法区分。
“很明显,PGD实际上就是正确的算法,”Kolter说。“这是显而易见的,人们希望找到过于复杂的解决方案。”