360亿AI芯片独角兽SambaNova Systems裁员15%

2次阅读

共计 1097 个字符,预计需要花费 3 分钟才能阅读完成。

据 EETimes 报道,美国 AI 芯片独角兽 SambaNova Systems 近期宣布裁员 77 人,约占 500 名员工的 15%。此次裁员正值公司偏离最初目标,放弃 AI 训练,转向专注 AI 推理。

SambaNova 成立于 2017 年,总部在美国加州,曾想为训练和推理打造统一架构的 AI 芯片,2023 年发布了一款专为大语言模型微调和推理设计的芯片。其上一轮融资是 2021 年的 D 轮融资,融资总额超 11 亿美元(约合人民币 80 亿元),估值超 50 亿美元(约合人民币 362 亿元)。

SambaNova 发言人称,公司做了些调整,以适应当前市场状况及从模型训练到微调和推理的转变。已迅速转向专注提供云优先解决方案,帮助企业和开发者大规模部署开源模型。

在 AI 训练市场,英伟达统治地位难撼动。相对而言,在 AI 推理市场收获客户可能性更大。随着大模型服务普及,模型推理亟需更高性价比的算力基础设施,数据中心 AI 推理芯片市场规模被看好。数据中心领域的 AI 芯片和硬件创企已转向通过云端提供对开源大语言模型的 API 访问。

SambaNova 的目标客户群是企业市场,正尝试通过云服务部署基于大语言模型的应用程序进入推理领域,去年 9 月首次推出 SambaNova Cloud。该公司的软件栈 SambaNova Studio 面向企业 AI,并随 SambaNova 机架式硬件一起提供,用于本地集群和云端。

近几个月来,AI 芯片独角兽 SambaNova、Cerebras、Groq,通过自有硬件提供大语言模型 token 服务。这三家公司最初都专注于为其他云服务提供商和本地 AI 计算销售硬件系统,其中 SambaNova 和 Cerebras 仍在销售硬件系统。

SambaNova 平台搭载其第四代处理器 SN40L。SN40L 采用数据流架构和三层内存架构,提高了 AI 推理效率。通过整合超大内存,单个 SambaNova 系统即可容纳数 TB 的模型。

根据独立 AI 基准测试公司 Artificial Analysis 的测试结果,SambaNova 在 DeepSeek R1 671B 上平均每秒每位用户可交付 250 个 token,而使用 GPU 的提供商平均每秒每位用户仅交付 19 个 token,这意味着 SambaNova 的推理性能平均比 GPU 驱动的系统快 10 倍以上。

尽管多家 AI 芯片创企曾披露“超越英伟达”的雄心,并试图通过提供更具竞争力的价格来打动客户,但芯片市场竞争残酷,英伟达的生态影响力难撼动,其他在 AI 芯片市场上有所作为的供应商也多是芯片大厂。

精简团队、聚焦主线,是近期多家芯片企业为改善业绩、增强竞争力的主要手段。随着企业适应不断变化的行业竞争和经济状况,2025 年科技行业的裁员名单预计会更长。

正文完
 0