国产大模型挑战OpenAI,百度的未来之路

22次阅读

共计 1406 个字符,预计需要花费 4 分钟才能阅读完成。

文心一言对标 GPT-4

自从 GPT- 4 面世,百度也承受着巨大的压力。李彦宏和 CTO 王海峰在发布会上显得颇为紧张,李彦宏表示,文心一言在与 ChatGPT 及 GPT- 4 竞争上,确实面临不小的挑战,他的测试结果显示,文心一言还有很多需要改进的地方。

文心一言是百度推出的一款大语言模型及生成式 AI 产品,发布会中展示了其在文学创作、商业文案编写和数理推算等场景的能力。这些都是语言模型比较常见的功能,而其中文理解及多模态生成能力则更加突显了其技术实力。

在我们对文心一言进行内测后,结果比预想中要好。尽管与 New Bing 相比尚有一定差距,但在商业访谈命名和理论解释方面,文心一言的表现相对完整。不过,在一些计算问题上,比如“同时抽水和放水”,文心一言显示出了审题错误的问题。

面对压力,李彦宏解释了为什么在 3 月 16 日发布文心一言。首先是市场有强烈的需求,不仅是百度的产品需要,客户的需求同样迫切。其次,收集反馈至关重要,人类的真实反馈能极大促进文心一言的成长。

多模态生成,未来的发展趋势

文心一言在多模态生成方面的表现尤为亮眼。在发布会上,李彦宏通过文心一言生成了一张海报并撰写了一段关于智能交通的文字,甚至让它用四川话朗读出来,然后用这些素材生成了一段视频。这样的表现,让人对其多模态能力刮目相看。

与之对比,GPT- 4 展示了单模态与多模态之间的区别,它不仅支持图像和文本输入,还能通过文本方式输出多种形式的信息。多模态的输出虽然并不复杂,但真正的难度在于输入,开发者需要让模型真正“看懂”图像,并在训练阶段就将图像和相应的标注信息结合在一起。

如 GPT- 4 所展现的那样,它能够理解图片中的意义,甚至识别幽默的元素。这完全说明李彦宏的判断:多模态生成是生成式 AI 的发展趋势。

如何让模型在小与大之间找到平衡

虽然目前 OpenAI 在市场上占据领导地位,但许多公司正在积极寻求通过调整模型规模来提高效率。问题是,怎样的模型才算是优秀的?究竟模型的参数越大越好吗?

研究显示,当模型规模达到一定层级后,便可表现出突变式的能力,这被称为“涌现现象”。这种现象是基于模型参数的规模,而具体需要多少参数来产生涌现能力,实际上与所处的具体任务及模型自身的设置也有很大的关系。因此,如何将模型做小以匹配行业需求成为一个重要的挑战。

例如,DeepMind 的 Chinchilla 和 Meta 的 LLaMA 等模型表明,减小规模是可行的,即使在小规模的情况下,通过增加训练数据同样可以保持涌现能力。Chinchilla 的模型虽然只有 70B 参数,却通过增加拥用的训练数据量,实现了与更大模型相同的效果。

提升 AI 的工作效率与应用范围

随着 AI 大型模型的普及,许多原本需要专业知识的领域也逐渐被降门槛。例如,虽然生成内容的能力提升,普通人可以借助 ChatGPT 编写基本代码,但在面对复杂项目时仍然需要专业的评估与指导。无疑,AI 在提升效率的同时,也对从业者提出了更高的要求,如何提出有效问题将变得尤为重要。

在这种情形下,AI 为工作者提供的并非是简单的替代,而是一种新的工作模式与思维方式。以编程为例,程序员的角色正在从直接编码转变为对 AI 的指令和需求进行规划,从而实现更有效的协作。

李彦宏在文心一言的发布会上提到,随着技术的不断演进,许多从业者的工作性质将发生不可逆转的变化。随着 AI 的加入,许多岗位价值需要重新思考,不论是人才的标准还是聘用的方式,都是未来需要去探索的方向。

正文完
 0