1. 首页 > 热点新闻

超级AI会偷袭人类吗

编译 | 王方

一个人工智能的超级智能会突然出现吗,还是科学家能预见它的到来并来得及向全世界发出警报?随着大型语言模型,如ChatGPT的兴起,这个问题最近受到了很多关注。这些模型随着规模的增长已经获得了大量新功能。

一些研究结果指向了“涌现”现象,即人工智能模型以一种骤然且不可预测的方式获得了智能。但最近一项研究将这种情况称为“海市蜃楼”,即系统测试过程中产生的假象,并认为创新能力的增强是循序渐进的。

研究人员近日在美国新奥尔良举行的神经信息处理系统大会(NeurIPS)机器学习会议上报告了这项工作。

“我认为他们在说‘没有什么神奇的事情发生’方面做得很好。”谋智基金会研究人工智能审计的计算机科学家Deborah Raji说,这是“一个非常好的、坚实的、基于衡量的评估”。

人们通常使用大量文本或其他信息训练大型语言模型,并通过预测接下来发生什么生成现实的答案。即使没有受过明确的训练,它们也能翻译语言、解决数学问题、写诗或编写计算机代码。

模型越大——有些模型的可调参数超过了1000亿,性能就越好。一些研究人员怀疑,这些工具最终将实现通用人工智能,从而在大多数任务中与人类匹敌,甚至超过人类。

这项新研究从几个方面检验了“涌现”的说法。在一种方法中,研究人员比较了人工智能公司OpenAI的4种规模的GPT-3模型的4位数相加的能力。从绝对精度来看,第三种和第四种模型的性能差异从接近0%到接近100%不等。但如果考虑答案中正确预测的数字数量,这种趋势就不那么极端了。

研究人员还发现,可以通过给模型更多测试问题来抑制曲线。在这种情况下,规模较小的模型有时会作出正确的回答。

接下来,研究人员观察了谷歌公司的LaMDA语言模型在几个任务中的表现。那些表现出明显智能跃升的模型,比如在识别讽刺或翻译谚语方面,通常面对的是答案为对或错的多项选择任务。相反,当研究人员检查模型在每个答案上的概率时,“涌现”的迹象消失了。

最后,研究人员转向了计算机视觉,这一领域“涌现”的说法较少。他们训练模型压缩然后重建图像。仅仅通过为正确性设定一个严格的阈值,他们就可以诱导明显的“涌现”现象。

新研究合作者、美国斯坦福大学计算机科学家Sanmi Koyejo表示,考虑到一些系统表现出突然的“相变”,人们接受“涌现”的想法并非没有道理。他还指出,这项研究不能在大型语言模型中完全排除这种可能性,更不用说在未来的系统中了。

“迄今为止的科学研究有力地证明,语言模型的大多数方面确实是可预测的。”Koyejo补充道。

这项研究还对人工智能的安全和政策产生了影响。Raji说:“通用人工智能的支持者一直在利用新兴能力的说法。毫无根据的恐惧可能导致令人窒息的监管,或者转移人们对更紧迫风险的注意力。”

“这些模型正在改进,且改进是有用的。”Raji说,“但它们还没有接近意识。”

网友看法

1、网友豁达追光者89:换个问法,美英研究的人工智能会袭击亚洲人么

2、网友齐小川2:其实,我认为,不会产生意识,为啥,因为训练的是数据,其实说白了,就给计算机一样,包罗万象,无非就是进行了整合,或则设定的某种程序进行。如果干了人类没有指定的东西,那就危险了。

3、网友可可爱爱小粉粉:拔电、关网、关卫星,我就不信AI有多大能耐,一个小时收拾它们。

4、网友洛邑之子:拔电、关网、关卫星,我就不信AI有多大能耐,一个小时收拾它们。

5、网友祝福洛阳:人类怎么知道AI有没有意识 它比人类更智慧 就可能在人类不知道的情况下隐藏自已的意识能力 后果就会很严重

6、网友奋发有为行万里:人类怎么知道AI有没有意识 它比人类更智慧 就可能在人类不知道的情况下隐藏自已的意识能力 后果就会很严重

7、网友齐小川2:我们设立某种东西,是用来为我们服务的,也就是说,我要求他干啥,他,干啥。举个例子,大模型中,算个数据,表中没有的数据。他还是算出来了,达到我们的预期。如果有抵触情绪或则违反我们的意愿,他就有可能产生意识了。

版权声明:本文来源于互联网,不代表本站立场与观点,滴大大点评网无任何盈利行为和商业用途,如有错误或侵犯利益请联系我们。

联系我们

在线咨询:点击这里给我发消息

微信号:79111873