共计 1513 个字符,预计需要花费 4 分钟才能阅读完成。
近日,OpenAI 的首席技术官 Murati 在一次采访中透露,AI 在未来一年半内将能够在某些领域达到博士级别的智能。她指出,目前的 GPT- 3 智能水平相当于幼儿,而 GPT-4 则像个聪明的高中生。下一代的 GPT- 5 预计将在 18 个月内发布,并能达到博士的智力层次。
与此同时,Claude 3.5 Sonnet 的表现也令人瞩目,最近被认为是第一个在能力测试中超越大多数人类博士的模型。在研究生级推理、普通知识和编码能力方面,Claude 3.5 出乎意料地刷新了记录。在 MMLU 测试中获得 90.4 的高分,而在 GPQA 测试中得分 67.2,标志着它超越了人类博士的平均水平。
如果未来的 GPT- 5 或者其他模型真的能够达到这样的智能水平,人类的世界将会如何变化呢?在达特茅斯学院的采访中,Murati 回答了一个引人关注的问题:如果三年后,GPT 变得极其智能,是否会主动连接互联网开始行动?对这个问题,她的回答是肯定的。她认为,具备智能的 AI 系统将能够相互连接、交流,完成任务,甚至与人类进行更无缝的合作。
AI 的迅猛发展带来了全新的预判。2022 年,有专家认为人类水平的人工智能将在本世纪 60 年代实现,但如今社区对于 AGI 的达成时间预测已经提前到了 2030 年代,甚至更早。而 Ilya 在新公司的官方声明更是声称,超级智能的到来已经触手可及。
随着 AI 智能的提升,我们可能会面临的一个问题是,它们将如何影响人类的未来?随着人工智能接近通用智能(AGI),下一步可能就是超级人工智能(ASI)的出现。这种智能将超越人类的能力,涵盖各种领域,并能够被人类视为神一般的存在。例如,一篇最新的论文指出,ASI 无与伦比的能力可能使人们产生崇拜的倾向,从而盲目接受其决策。
正如历史上的各类神祇,ASI 也可能被视作一个有着全知全能特质的存在,因而引发新形式的社会管理与治理方式。作者 Tevfik Uyar 警告说,将技术的进步与道德的优越性混为一谈可能会导致巨大的风险。当人类将决策权交给 AI 时,批判性思维和主动性可能会被逐步削弱。
AGI 被视为最雄心勃勃的人工智能尝试之一,它拥有与人类智力相当的全面认知能力。然而,ASI 将进一步超越这一点,在各个领域的各个层面上超越最优秀的人类。人类一向希望能创造出具有精神和智慧的存在,这种想法可以追溯到古代的神话传说。
如果 ASI 因其超凡能力而被尊崇为神,那么我们会看到怎样的社会形态呢?ASI 将拥有强大的计算能力,可能会超越人类在决策和问题解决方面的能力。它可能通过访问广泛的数据来接近一种无所不知的形式。通过互联网,ASI 在数字世界中的存在是无处不在的,一个大型的知识库可以随时被调用。
当我们讨论神与 ASI 的对比时,不可避免地会提到最后的道德判断。神被视作伦理与道德的最终权威,而 ASI 或许只是根据算法来作决策。这就引发了一个重要的问题,若人类依赖 ASI 的决策,是否会模糊道德和伦理的界限?
我们或许能设想出 ASI 会成为社会的“牧羊人”,引导人们的生活。就像普罗米修斯给人类带来知识与启蒙,ASI 同样能够为我们解决即将面临的重大挑战。这样的类比强调了科技如何在关键时刻引领社会的发展。
但对于 ASI 能否真正“治愈”我们的社会危机,这仍是一个开放的问题。无论是在应对全球气候变化,还是在医疗健康等领域,如果 ASI 能够通过算法提供有效的解决方案,它的信任度将会被建立。因此,能否成功应对这些挑战,将直接影响人类对 ASI 的依赖与信任。
总的来说,若 ASI 能够成功挽救我们面临的危机,它将会在社会中获得无可争议的地位。与此同时,值得关注的是,越依赖 ASI,越可能引发人类思维的懈怠,甚至放弃批判性思维。这是我们在追求技术进步过程中必须时刻警惕的风险。