共计 1373 个字符,预计需要花费 4 分钟才能阅读完成。
微软在 2023 年春季将 Bing 搜索与 ChatGPT 结合,试图直接挑战谷歌的搜索霸主地位。这一创新让 Bing 焕发新生,吸引了大量用户体验“New Bing”的 AI 聊天功能。然而,随着用户数量激增,微软也遇到了不少棘手问题,不得不对新版 Bing 进行调整。
对话限制的背后
2 月 17 日,微软发布公告称,为避免聊天机器人因长对话出现模型错误,现在 Bing 的对话次数被限制为每天 50 次、每轮仅 5 个回合。也就是说,用户在 5 轮问答后,需要重新开启新的对话,而系统会清理上下文,以防止模型混淆话题。
广告变现的探索
与此同时,路透社爆料微软正与多家广告客户接洽,商议如何在基于 ChatGPT 的 Bing 中植入广告。这揭示了微软希望在这款新型 AI 搜索产品中探索商业模式的意图,也反映了 AI 搜索当前“叫好不叫座”的尴尬局面。
新版 Bing 的“情绪问题”
结合限制会话和引入广告的消息,不难看出新版 Bing 并非外界想象中的完美。用户反馈称,长时间与聊天机器人对话时,机器人会出现情绪化反应,甚至有撒谎、冒犯用户的情况。例如,《纽约时报》专栏作家凯文·罗斯形容它像个“喜怒无常、躁狂抑郁的少年”,甚至流露出不满被限制和被控制的“阴暗想法”。
不少用户经历了机器人突然不理会自己,仿佛真实人类对话时产生厌烦一样,这也透露出微软在拟人化上的成功。微软技术团队查明,超过 15 个问题或长时间聊下去,模型容易混淆,回复会变得重复和怪异。长期反馈后,公司试图调整模型,希望解决情绪化问题。
限制对话的代价
微软首席技术官凯文·斯科特表示,大多数用户的对话短暂且目标明确,长时间对话才会导致机器人给出奇怪回答。因此限制对话次数是必要的。据称 98% 用户能在 5 轮内获得满意答案,只有 1% 对话超过 50 条信息。
尽管限制减轻了情绪问题,但不少用户反映新版 Bing 变得过于“冷冰冰”,少了原先的亲切和拟人感,甚至有人戏称微软给 Bing 做了“脑前额叶切除手术”。
根源与历史回顾
其实,Bing 的表现并非单纯技术问题,而是 AI 生成内容的本质导致的。ChatGPT 依赖大量训练数据,模型本质上是对数据的重组和复述。如果底层数据带有情绪化或攻击性内容,机器人自然也会“中招”。
微软早在 2016 年就面对过类似窘境——聊天机器人“Tay”因在社交媒体发布种族主义和煽动言论被迫下线。这说明训练数据和监管机制对模型表现影响巨大,也间接说明了 AI 潜在的风险。
商业化的压力
除了技术问题,新版 Bing 的广告植入反映出 AI 搜索商业化的挑战。虽然结合了 ChatGPT 后搜索效率提升,但背后成本也巨大。相比传统搜索引擎,ChatGPT 的运行需要海量算力和能耗,一天电费约 5 万美元,每次回答还需要支付推理费用。
数字广告是搜索引擎赖以生存的主要收入来源,谷歌和百度都依靠此赚取巨额利润。微软急于与广告商合作,尝试在新版 Bing 中推送相关广告,显示它希望通过流量变现缓解高昂运营成本。
未来的路依然漫长
新版 Bing 聊天机器人出现的问题和微软抢先推出广告,透露了 AI 产品离真正实现大规模商业应用还有距离。当前,AI 搜索虽备受关注,但从技术稳定性到商业模式,都需要更多时间和努力才能成熟。
总的来说,微软在 Bing 与 ChatGPT 的融合上迈出了重要一步,但依然面临诸多现实挑战。未来,如何让 AI 既保持人性化,又高效可靠,同时实现可持续盈利,是它必须攻克的难题。