全球专家联名呼吁暂停超强AI开发6个月

29次阅读

共计 1321 个字符,预计需要花费 4 分钟才能阅读完成。

随着 GPT- 4 的强大表现持续引发广泛关注,全球科技界的领袖们也开始担忧潜在的风险。最近,一封由超过千人签署的联名信在网络上迅速传播,内容呼吁停止一切比 GPT- 4 更先进的人工智能系统的研发至少六个月。这个声明由多位世界顶尖的 AI 专家、企业家、学者和科技奖得主联合发起,其中包括图灵奖得主 Yoshua Bengio、Stability AI 的 CEO Emad Mostaque、苹果联合创始人 Steve Wozniak、马库斯教授、马斯克以及《人类简史》的作者尤瓦尔·赫拉利等知名人士。

为何要暂停 AI 的发展?

该联名信指出,当前大量研究表明,具有人类竞争水平智能的 AI 系统可能带来深远的社会和安全风险。按照广泛认可的 AI 伦理原则——如 Asilomar AI 原则——高阶 AI 的诞生可能引发地球生命历史上的重大变革,必须投入适当的资源进行应对和管理。然而,令人担忧的是,很多 AI 研究机构近年来在没有足够安全保障的情况下,疯狂竞逐更强大的模型。毫无节制的竞赛导致许多 AI 系统变得难以理解、预测甚至控制,连它们的设计者都竭力难以把握其发展方向。

AI 的潜在威胁

在未来,如果没有有效的监管措施,AI 可能会被用来散播虚假信息,操控公众舆论,甚至在某些情况下威胁人类的生存。有人担忧,自动化和深度学习技术的不断优化,可能会带来“超越人类”的智能,导致工作岗位流失,甚至失去对自主系统的控制,让未来的局势变得难以预料。这些担忧促使许多专家呼吁:在我们还没有充分准备之前,不应盲目追求更强的 AI 能力。

安全协议与政策建议

为了应对这些风险,联名信提倡全球 AI 研究机构应立即暂停所有超过 GPT- 4 水平的 AI 训练,至少六个月。这期间,应由专业外部团队制定安全、透明的开发规范,并由相关监督机构逐一核查。同步进行的工作还包括构建可以追踪模型泄漏、维护内容真实性的水印技术,以及建立追责机制,确保在 AI 造成伤害时追究相关责任。此外,推动政府和公共资金的投入,以支持 AI 安全技术的研发,也是避免未来潜在危机的重要措施。

未来的 AI 设计发展方向

在暂停期内,所有 AI 开发者都应专注于提升模型的安全性、可解释性和可靠性。未来的 AI 系统应不仅要具备更强的理解和响应能力,还要实现可控、对齐和安全,成为值得人类信赖的“伙伴”。同时,政策制定者也应加快建设监管体系,包括内容检测、模型水印和审计机制,确保技术的每一步都在可控范围内进行。只有在确保安全和风险可控的前提下,才能推出真正强大的 AI 系统,惠及全人类。

公众与技术界的不同声音

这份联名信一经发布,便引起了轩然大波。一方面,支持者认为 AI 的快速发展带来了前所未有的变革,担心若继续放任其野蛮生长,未来可能出现难以预料的灾难。另一方面,也有人对“暂停”提出了质疑:他们担心这会妨碍技术创新,削弱竞争力,甚至有人用历史上的反对技术的宣传,像爱迪生操控的交流电反对其他技术的宣传,来反对这项倡议。

从科技企业到公众,意见分歧很大。代表企业的像 OpenAI 的 CEO Sam Altman 在近期访谈中也表达了复杂的态度。他强调,GPT- 4 的出现给人类带来了前所未有的启发,但同时也承认,AI 的推理能力其实仍在探索阶段,未来的潜力巨大却伴随巨大风险。Altman 甚至指出,

正文完
 0