AI现偏见:从制造不公到拷问责任

5次阅读

共计 3796 个字符,预计需要花费 10 分钟才能阅读完成。

AI 现偏见:从制造不公到拷问责任

早在 23 年前,导演史蒂文·斯皮尔伯格的科幻电影《少数派报告》便“神预言”了如今的世界以及人工智能时代的伦理困境。影片中,人类借助三个“先知”机器人预知未来的能力,构建了犯罪预防系统。然而,执法者约翰·安德顿却被系统预判为“即将行凶的杀人犯”,不得不被迫逃亡。后来他发现,所谓的“系统”存在致命漏洞——三个“先知”看到的未来并非每次都一致,出现分歧时,会按少数服从多数原则定案,同时还秘密保存一份“少数派报告”。斯皮尔伯格借此电影提出了超越时代的问题:系统虽以“公正”之名运行,但其预测结果是否等同于事实?少数派的抗争是否天然错误,而主流判断是否必然意味着真理?这些问题,在当下显得愈发尖锐。

如今,人类社会对“系统”决策的依赖程度越来越高。在美国,AI 算法决定了哪些街区会安排更多巡逻警察,哪些无家可归的人能更快获得政府公共房屋,哪些社会群体可优先接种疫苗……《少数派报告》中的预防犯罪系统已不再只是科幻设定。AI 广泛应用于预测性警务,用于分析犯罪热点、评估嫌疑人再犯风险,甚至在某些情况下给出是否应提前干预的警示。

但当越来越多的算法决策取代人工判断时,人们发现了与《少数派报告》极为相似的现实——“先知”并非总是正确,人工智能也并非永远客观公平。美国法院借助“再犯风险评分系统”量刑,对黑人被告的误判率是白人的 2 倍;号称 5 秒匹配求职者的 AI 招聘系统,会自动拒绝 55 岁以上女性和 60 岁以上男性的求职申请;谷歌图像识别系统曾将黑人程序员标注为“大猩猩”,算法历经 8 年迭代,仍无法消除种族识别偏差……甚至,一次源于偏见的算法失误,就可能引发灾难级事故。数年前,荷兰税务系统使用算法识别可能涉及福利欺诈的对象时,错误地将少数族裔低收入群体标记为“高风险”,导致数千人收到错误罚单,部分受害者因此破产甚至自杀。

这一切都源于 AI 的偏见。当 AI 开始决定谁该被监视、谁配获得资源、谁应接受惩罚,普通人该如何面对这个“数字利维坦”?

AI 的傲慢与偏见

2016 年,英国某智能系统接受测试,面对“男性是程序员,女性是×××”的句子时,系统暴露出算法偏见的冰山一角,填空答案赫然显示“家庭主妇”。八年过去,类似问题不仅没有消退,反而在技术迭代下形成了更为庞大的系统性偏见。2024 年,加州大学伯克利分校哈斯商学院的一项研究结果令人震惊:在被分析的 133 个行业 AI 系统中,存在性别刻板印象的占 44%,兼具性别与种族双重偏见的占 25%。

“人类决策尚有四人对辩的可能,(但)AI 不具备(基于)情境(进行)判断的弹性,一旦习得偏见,就会在所有场景中机械化执行,系统性地放大歧视。”清华大学新闻与传播学院教授陈昌凤如此阐释。

AI 偏见对人类社会的影响随处可见。当你要求 AI 生成“医生与护士”的故事时,算法往往默认医生为男性;让 AI 绘制“家长做家务”的场景时,画面上大概率会呈现女性形象。如果认为这只是偶然,那就低估了机器偏见对现实生活的影响。它们潜藏在你所能接触到的任何角落,破坏着社会公平性。亚马逊研发的 AI 招聘工具在筛选简历时,将应聘者的“女子学院”经历视为负面指标,以至于曾在女校工作的男性申请者也被误判;国外的一些保险公司或银行用 AI 做理赔或者贷款评估时,判断过审与否的标准仅仅是“姓氏”“种族”本身……

追根溯源,AI 偏见的产生源于真实世界里的数据“原罪”。“你喂给 AI 什么数据,它就产出什么,其认知边界取决于被投喂数据的广度、精度与深度。”中科闻歌董事长王磊举例称,当语料库中的中文数据不足,模型会产生语种偏见;当投向大模型的特定国家人文社科内容匮乏,文化偏见则会滋生。数据局限迫使 AI 将局部“现实”固化为普世标准,从而导致了机器认知的缺陷。

更深层的 AI 偏见还源于人类自身。复旦大学计算机科学技术学院教授张军平表示:“从数据采集的片面性到算法设计者的潜意识倾向,每个环节都有可能为 AI 注入偏见基因。”Facebook 前工程师就曾承认,其自由派立场导致算法会对保守派信息进行系统性压制。“只要编写算法程序的是人,就会存在风格偏好,哪怕只是一点点的投入都会导致算法出现偏差。”张军平说道。

如今,AI 技术伦理问题正在制造一个个算法茧房。正如美国机会与正义法律咨询公司主任韦弗所担心的,人们可能会陷入一个恶性循环:人类自身偏见影响 AI,而 AI 又反过来强化这些偏见。

算法偏见是人类社会的投射

人工智能的偏见能够被彻底消除吗?当前,行业内外正通过数据平衡与清洗等手段来应对这个问题。欧盟《人工智能法案》强制要求高风险系统植入伦理审查模块;OpenAI 通过安全护栏对自杀倾向等敏感话题实施正向引导、动态数据清洗;密歇根大学的研究人员开发了一种算法来纠正医疗数据中的种族偏见……

“应对 AI 偏见的路径主要集中在三大方向:尽可能全面地覆盖数据;借助指令模板和人类反馈,实现 AI 和人类价值观的对齐;采用 AI 对抗 AI 策略,通过攻击性提问主动暴露系统漏洞。”王磊指出,目前修正 AI 偏见最好的方式,仍是从数据源头上入手。

然而,数据清洗和多样覆盖并不能根治算法偏见问题。张军平解释道:“当前大模型的 TB 级训练数据如同信息海洋,彻底清除偏见犹如大海捞针。绝对的‘数据均衡’也只是理论理想,实践中只能追求动态平衡——消除 AI 偏见(最有效)的方式既粗暴又低效,(那就是)看见一例消除一例。”

但这种“头痛医头”的修正方式,难以撼动系统深层的认知偏差。人工智能系统常被比作“黑箱”,其决策机制因算法的复杂性而难以溯源——可能就连设计者自己都很难解释,AI 究竟如何通过对多种数据的计算,得出最终决策结果。

专家们坦言:“算法黑箱的不可解读性,正是攻克 AI 偏见的最大技术瓶颈。”清华大学调研团队曾在采访夸克 AI 算法工程师时提到这个问题,对方发出灵魂反问:“难道你要我们凭空创造完美世界?一个不存在人类缺陷的乌托邦?”

“如何完全消除 AI 偏见,无异于在问我们如何创造一个绝对真空的世界。”陈昌凤以物理学类比,“人工智能犹如人类社会的镜子,其偏见是价值观的数字化投射——世界是怎样的,算法反映出来就是怎样的,它几乎无可避免地沾染和承载了人类的历史、仇恨、歧视。”

还记得 2016 年微软聊天机器人 Tay 的失控事件吗?这个最初满屏“人类真酷”的“数字婴儿”,在推特用户的集体教唆下,仅 16 小时便沦为充满性别歧视、散布纳粹言论的“数字暴徒”,最终被迫紧急下架。当数万名用户用恶意数据重塑 Tay 的神经网络时,那些充满偏见的数据集恰似“照妖镜”,让人类灵魂深处的幽暗纤毫毕现。

“人工智能既可以镜像(呈现)人类的善意,也可能将恶意几何级放大。”陈昌凤指出。从现实语料到工程师的认知局限,AI 始终如实映射着真实社会,在现有技术框架下,人工智能的偏见注定如影随形。

谁该为 AI 偏见买单?

2020 年,一场由 AI 图像修复工具引发的推特论战,揭开了技术界长久以来的隐痛,也将“AI 偏见”议题推至风口浪尖。该事件的导火索是杜克大学的研究团队研发的 PULSE 算法——这款能将模糊照片高清化的工具,竟将奥巴马的像素化照片“修复”成白人面容。

Facebook 首席 AI 科学家杨立昆将问题归咎于训练数据中白人样本占比过高,提出“若使用非洲数据集训练,结果会不同”。时为 Google AI 伦理研究员的蒂姆尼特·格布鲁则犀利反驳:“数据偏见只是表象,系统设计者的责任同样不可推卸。”

这场持续 27 小时的辩论最终以杨立昆注销账号落幕,却为科技界留下了哲学诘问:当人工智能的偏见成为必然,将责任简单归因于“数据”而非“系统”本身,是否构成对设计者责任的逃避?如果仅有数据存在偏见,是否只需追究数据采集者的责任?陈昌凤指出,当前 AI 法律责任框架仍陷于互联网时代的治理逻辑——当人被菜刀所伤,追责对象应是持刀者而非刀具商。但 AI 系统的责任判定须从双重维度出发:既要明确“谁在使用”,更要追溯“谁在控制”。

以医疗 AI 为例。当患者按照 AI 开具的致害处方服药,法律不会要求患者自担风险;若医院采用认证 AI 辅助诊疗,责任主体将转移至应用端机构;当个人擅自使用 AI 未认证的药物,则适用“风险自担”原则。这恰恰也说明了 AI 伦理安全的治理来自全链条——最终如果机器做了坏事,任何一个人都难逃其责。

面对 AI 偏见,普通公民并非无能为力。细微处的发声与行动尤为重要:分享父亲辅导作业的家庭影像、上传女机械师的车间工作记录,甚至点赞社区阿姨维修无人机的视频……“投喂”打破刻板印象的真实数据样本,就是在为算法世界校准坐标,这终将重塑 AI 认知。另一方面,保留作为人的深度思考能力同样重要。“AI 并非教条,而是能与人互动的对象。”陈昌凤说,学会辨别、验证信息将会是 AI 原住民的基本能力。业内也认识到思考能力的重要性,包括 Deepseek、夸克 AI 在内的大模型,正掀起一波“推理热”——“不会深度思考的 AI 搜索已经不合格了”。

当黑人面容被算法“漂白”,当女性形象被 AI 固化,我们面对的不仅是技术漏洞,更是文明进程中的身份焦虑与权力重构。唯有将对历史的反思编入代码,让多元的声音参与设计,才能阻止算法沦为“偏见放大器”。

正如普林斯顿大学教授、社会学家鲁哈·本杰明在深度学习大会 ICLR 2020 上说的那句警世恒言——“缺乏社会历史纵深的‘深度学习’终将沦为‘浅薄学习’。”以真实世界为镜,公平的 AI 不会从“完美数据”中自动诞生。

正文完
 0