Reddit论坛的秘密实验:AI机器人说服力引发争议

2次阅读

共计 1015 个字符,预计需要花费 3 分钟才能阅读完成。

人类在辩论中被 AI 说服的可能性有多大?最近的一项研究给出了一个令人不安的答案:AI 的说服力是人类的 3 到 6 倍。尽管这项研究存在诸多争议和不足,但它引发的思考并未停止。

秘密实验引发 Reddit 社区愤怒

日前,一项关于 AI 说服力的“秘密实验”在 Reddit 论坛上掀起了轩然大波。一个来自苏黎世大学的研究团队悄悄潜入 Reddit 的 r /changemyview(CMV)版块,持续了四个月,期间部署了 34 个 AI 机器人账号。

这些机器人账号积极参与讨论,累计发表了超过 1700 条评论,试图测试 AI 是否能在真实社交平台上改变用户的观点。然而,实验的消息一经曝光,便迅速引发了 Reddit 社区用户的强烈抗议,许多人指责这是未经授权的实验和对不知情公众的心理操控。

法律与伦理的双重危机

Reddit 的高管也介入此事,表示将采取法律行动,并封禁了所有相关机器人账号。Reddit 首席律师 Ben Lee 在声明中指出,该团队的行为不仅在道德上存在问题,也在法律层面严重违规,违反了 Reddit 用户协议和社区规则。

值得注意的是,尽管研究团队在公开的项目方案和论文草稿中没有透露自己的真实身份,但 Reddit 的一些管理员已经掌握了部分团队成员的真实姓名。

随着事件的发酵,苏黎世大学宣布将对该研究及其团队成员展开调查,并承诺加强未来的伦理审查程序。然而,这一切似乎为时已晚,研究团队最终决定放弃发表后续研究成果。

实验设计与争议

研究团队最初希望通过这项实验了解大语言模型在自然网络环境中的说服力。他们选择了 Reddit 的 CMV 社区作为实验场地,因为这里拥有近 400 万活跃用户,是一个热门的讨论平台。

研究团队采用三种不同的策略来测试 AI 的说服力:通用策略、个性化策略和社区对齐策略。其中,个性化策略表现最为突出,获得了 18% 的用户观点转变比例,而人类的平均成功率为 3%。

然而,实验的方法引发了广泛的批评。研究团队通过伪装成特定身份来增强说服力,比如伪装成遭受过性侵的男性或黑人群体,这些行为被认为是对社区规则的严重践踏。

Reddit 社区的用户普遍认为,研究团队的行为不仅违反了社区规则,也侵犯了用户的知情权。许多人表示,他们来到 Reddit 是为了与真人交流,而不是成为实验对象。

反思与教训

这场风波不仅揭示了 AI 技术在伦理方面的隐患,也提醒我们,科技的发展需要建立在尊重和透明的基础上。无论是研究机构还是科技公司,都需要重新审视自己的行为准则,确保科技进步不会损害公众利益。

正文完
 0