共计 1610 个字符,预计需要花费 5 分钟才能阅读完成。
近几个月,随着 ChatGPT 的爆火,科技行业掀起了新一轮的人工智能浪潮。尽管公众普遍聚焦于其强大的生成能力和广泛的应用场景,但鲜有人意识到背后隐藏的高昂成本问题。
当 ChatGPT API 开放后,使用成本虽下降了九成,但对于 OpenAI 及采用其技术的公司而言,运营压力依然巨大。传统搜索引擎如谷歌,基于庞大的网络索引为用户提供即时搜索结果,而 ChatGPT 式的 AI 引擎则需启动复杂的神经网络生成文本,甚至还需调用外部数据库验证信息。这不仅耗时更久,且每次交互的成本可能高达标准搜索的十倍以上,意味着潜在的巨额开支。
微软豪掷数亿,为 ChatGPT 打造专属超算
面对这一挑战,微软选择了坚定投入。据彭博社报道,微软投入数亿美元,专门为 OpenAI 构建了一台超级计算机,配备了“成千上万块 GPU”,助力其开发 ChatGPT 聊天机器人。
微软人工智能和云计算副总裁 Scott Guthrie 透露,此次投资规模庞大,但对微软而言并非难以承受。作为 OpenAI 多年合作伙伴,微软此前已承诺数十亿美元支持其发展。如今,这笔资金主要用于升级 Azure 云平台上的计算资源,使 OpenAI 能够训练更大规模、更复杂的 AI 模型。
例如,微软推出了配备英伟达 H100 和 A100 Tensor Core GPU 的新虚拟机,同时结合 Quantum-2 InfiniBand 网络技术,为 OpenAI 及其他 Azure 用户提供了前所未有的计算能力。这种基础设施不仅满足了 ChatGPT 的训练需求,也为未来更多创新应用奠定了基础。
回顾五年前,OpenAI 提出构建革命性 AI 系统的构想时,许多人对其可行性持怀疑态度。然而,正是借助微软的支持,OpenAI 实现了这一愿景,诞生了改变人机交互方式的 ChatGPT。为了训练这类大型语言模型,需要将数千个 GPU 协同工作,而 InfiniBand 网络则显著提升了数据交换效率,确保模型能够在最短时间内完成复杂运算。
谷歌加速 Big Bard 内测,探索优化路径
相比之下,谷歌面临的挑战更为艰巨。作为全球搜索引擎市场的领导者,谷歌在搜索业务上的地位不可动摇,而微软仅占全球搜索份额的极小部分。然而,若全面转向 AI 驱动的搜索模式,谷歌的成本将面临指数级增长。
据 Morgan Stanley 估算,假设每个查询只需 50 个单词的回答,谷歌每年的成本或将增加 60 亿美元。因此,谷歌采取了更为谨慎的策略,先推出轻量化版本的 Bard 聊天机器人,以减少初期投入。但随着市场对高质量 AI 响应的需求不断攀升,谷歌开始测试 Big Bard,这是 Bard 的升级版本,基于更大的 LaMDA 语言模型。
根据内部测试反馈,Big Bard 的表现更加丰富、生动,能提供更具深度和个性化的内容。不过,由于成本考量,Big Bard 目前仅限部分员工使用,而面向全体用户的 Bard 仍处于开放状态。此外,谷歌计划通过优化算法和硬件架构,在保证性能的同时控制支出。
商业模式的探索与挑战
尽管 AI 技术前景广阔,但如何实现盈利仍是各大厂商亟待解决的问题。目前,微软正尝试在必应聊天机器人中嵌入广告,以缓解高昂的运维成本。与此同时,越来越多的企业开始利用 ChatGPT 等工具提升业务效率,但这种方式大多缺乏独特性,难以形成核心竞争力。
OpenAI 也面临着类似的困境。其推出的 Davinci、Curie、Babbage 和 Ada 四个 GPT- 3 系列模型各有侧重,其中 Davinci 性能最强,但定价较 ChatGPT 高出十倍。这导致许多开发者倾向于选择后者,从而拉低了整体市场价格。尽管如此,OpenAI 依然坚持低价策略,希望通过“薄利多销”扩大影响力,并期待未来通过增值服务或其他形式创造收入。
总体来看,无论是微软还是谷歌,都在这场 AI 军备竞赛中倾尽全力。从硬件设施到软件开发,再到商业模式的设计,每一步都关乎未来的成败。可以预见,这场竞争还将持续升温,而谁能率先找到可持续发展的路径,谁就将在 AI 时代占据主导地位。