AI安全危机:OpenAI的争议与未来

4次阅读

共计 1267 个字符,预计需要花费 4 分钟才能阅读完成。

OpenAI 近日引发的争议,引起了全球对人工智能安全性的新一轮关注。上周,这家顶尖的 AI 公司与谷歌的一些员工联合发公开信,警告说,人工智能可能带来灭绝人类的风险。这封信不仅采用了惊悚的语气,还得到了两位图灵奖得主的支持,让整个 AI 行业为之震动。

信中指出,AI 公司对自己正在研究的技术的潜在风险非常清楚,但由于缺乏政府的监督,这些风险的真实能力仍被视为“秘密”。如果没有适当的监管,人工智能系统的强大可能会对人类造成严重危害,甚至导致人类灭绝。

这封公开信揭示了 OpenAI 内部的深层次问题,暗示了去年爆发的“政变危机”,当时首席科学家伊利亚·苏斯克沃联合董事会罢黜了当时的 CEO 山姆·奥特曼。此事件吸引了广泛的关注,最终也使得微软公司这种背后的金主出手相救,奥特曼得以恢复职务。

此次政变的核心争议在于 AI 的安全性问题。伊利亚坚持认为 AI 的安全必须放在商业利益之上,而奥特曼则加快向商业化转型,甚至在安全性尚未明确的情况下推出了 GPT 应用商店,允许私人开发自己的 GPT 机器人,开放“灰色机器人”入驻。这两位高层的观点分歧,逐渐演变为内斗。

在经过多次不和后,伊利亚被边缘化,最终被解雇,而奥特曼则迅速改变了公司的结构,试图消除对他持不同意见的董事会成员。最高层的权力集中使得 AI 安全团队的解散,AI 安全的监管几乎被削弱。可见,奥特曼在他看来,AI 的安全性远没有盈利来得重要。

这种做法在业界引发不满,许多前员工称他们在离职时被要求签署极为严格的保密协议,禁止他们在任何情况下批评 OpenAI,否则将面临失去数百万美元股份的损失。这样的强硬手段,虽然震慑了不少人,但也加剧了外界对 OpenAI 不重视 AI 安全的质疑。

在此背景下,400 多位全球人工智能领域的专家和高管共同签署了另一封公开信,表达了对高级人工智能所带来的风险的关注。他们指出,减缓来自 AI 的灭绝风险应该与大流行病和核战争等其他重大全球风险平起平坐。

如此看来,将人工智能比作“核战争”这样的危险并不是危言耸听。随着 AI 技术的迅速发展,机器人在我们的日常生活和工作中扮演的角色愈加重要。然而,这也引发了人类生存的两大风险:短期危机和长期危机。

短期内,AI 的不断优化可能被不法分子利用,进而危害社会。例如,若大规模的 AI 模型被非法开源,一些人可能会横行无忌,制造出难以追踪的“灰色机器人”,这些不受控制的 AI 有可能给社会带来无与伦比的伤害。长远来看,当 AI 达到了超级智能的层面,恐怖的局面就将出现:如果超级智能用人类视为蚂蚁的眼光来看待我们,人类的生存将会遭到威胁。

为了应对这些挑战,谷歌的 DeepMind 公司已开始着手制定一部“机器人宪法”,以确保 AI 不会对人类造成伤害。这份宪法借鉴了艾萨克·阿西莫夫的“三大机器人定律”,明确对 AI 的行为进行规范,确保其在不同场景下不对人类造成任何形式的损伤。

虽然“机器人宪法”是个不错的开头,但 AI 安全性的问题仍然亟需更大力度的关注。在经济利益与安全之间,互联网巨头们必须意识到,AI 不仅仅是一桩商业生意,它的潜在危险甚至可能成为一名“电子核弹”。

正文完
 0