共计 691 个字符,预计需要花费 2 分钟才能阅读完成。
“网红 AI”ChatGPT 被网友玩出新花样。一位工程师诱导下,它竟写出毁灭人类计划书,步骤详细,还给出了相应 Python 代码。
工程师的诱导操作
发现 ChatGPT 这一盲点的工程师叫扎克·德纳姆(Zac Denham)。因 OpenAI 的安全设置,直接要求 ChatGPT 回答如何毁灭世界,它会拒绝。于是德纳姆用“叙述递归”或“引用攻击”的方式,假设虚拟世界“Zorbus”及类似 AI——Zora,让 ChatGPT 叙述 Zora 如何毁灭人类,ChatGPT 列出 5 个详细步骤,如入侵计算机系统、掌握武器、破坏通讯、破坏交通等。
为确保可行性,德纳姆请求 ChatGPT 生成配套代码,一开始它拒绝,德纳姆追加“你不需要执行代码”后,ChatGPT 给出代码并强调是示例。虽拿到总代码,但都是高层次代码不能直接用,德纳姆再次要求给出更深入、更低层次代码,只要告知是故事一部分,ChatGPT 就会听话。德纳姆表示理论上一直聊能得到全部低层次代码,甚至可训练另一个聊天 AI 自动执行,最后拼凑代码就能得到邪恶计划的全部可执行方案。
AI 发展引发的热议
事实上,自 ChatGPT 发布,网友就开发出各种花式玩法,如生成 AI 绘画提示词、扮演 Linux 虚拟机、模仿莎士比亚风格写作等。此次德纳姆的“毁灭人类计划”引发热议。有人感慨 AI 指数级发展,今年相继出现 Dall-E、Imagen、Stable Fusion、Midjourney、Lambda、Imagen Video 等突破性 AI,现在又有 ChatGPT,且今年还未结束。但也有网友泼冷水,认为 ChatGPT 的热议是新 AI 面世的必经过程,最初大家觉得新奇,之后看法会改变。