李彦宏揭秘:DeepSeek为何慢且贵

在2025年百度AI开发者大会上,百度创始人李彦宏发表了题为“模型的世界,应用的天下”的演讲,其中涉及了对DeepSeek模型的评价,以及百度文心大模型的最新进展。李彦宏坦言,DeepSeek模型在百度生态中的应用取得了一定进展,但同时也存在一些不容忽视的局限性。

DeepSeek的挑战:慢、贵与局限性

李彦宏指出,尽管DeepSeek在智能客服、搜索增强等场景中实现了效率提升,但它并非完美无缺。他认为DeepSeek存在以下几个主要问题:

  • 处理形式单一:DeepSeek主要支持文本处理,无法完成对图片、音频、视频等多模态内容的生成。而百度智能云的客户中,超过六成对多模态能力有明确需求。
  • 幻觉率较高:DeepSeek在生成信息时,容易出现错误或“幻觉”,这使得它在金融、医疗等高风险领域难以直接应用。李彦宏举例说,如果在电商直播中错误推送“买一送十”的优惠信息,商家将面临不可控的损失。
  • 速度慢、成本高:DeepSeek的响应速度较慢,调用成本也相对较高,这限制了其规模化落地。目前中国市场上的大多数大模型API调用成本都低于DeepSeek满血版,且响应速度更快。

文心大模型的升级:多模态、强推理、低成本

针对DeepSeek存在的这些问题,百度在此次大会上发布了文心大模型4.5Turbo与X1Turbo两个新版本,并提出了三大升级方向:

  • 多模态:李彦宏强调,多模态是下一代AI模型的“入场券”,纯文本模型的市场份额将加速萎缩。企业需要能够同时处理图文、音视频的通用型模型。
  • 强推理:新版本在推理能力上进行了优化,特别是在中英双语、法律医疗等垂直领域。
  • 低成本:文心4.5Turbo每百万token的输入价格降至0.8元,输出价格3.2元,较前代版本推理速度提升2倍,成本下降80%。X1Turbo版本输入价格1元、输出4元,在性能提升的同时,价格再压缩50%。

李彦宏认为,成本是AI应用爆发的核心掣肘,开发者构建AI应用的最大障碍是算力成本高昂。他以自动驾驶为例,指出2015年激光雷达单价超过10万美元,如今已降至千元级,直接推动了L4级技术的普及。文心大模型此次降价,旨在降低企业部署门槛,让中小企业用得起大模型,让创业者敢于试错,最终催生千行百业的AI原生应用。

成本结构突破的重要性

李彦宏强调,技术创新的本质往往源于成本结构的突破。降低大模型的使用成本,能够极大地推动AI技术的普及和应用。文心大模型此次降价,无疑将有助于降低企业使用AI的门槛,激发更多创新应用。

百度在AI领域的策略与展望

通过技术迭代与成本重构,百度试图在模型能力与商业化落地之间寻找平衡点。多模态能力与价格优势,将成为其争夺企业客户的关键筹码。文心大模型4.5Turbo与X1Turbo已同步开放公有云及私有化部署,支持按需调用与定制化训练,这将进一步满足不同企业的需求。

结语:AI应用的未来

李彦宏的演讲表明,AI技术的发展正朝着多模态、强推理、低成本的方向迈进。降低AI的使用门槛,将有助于推动AI技术在各行各业的广泛应用,最终实现“模型的世界,应用的天下”的美好愿景。