DeepSeek爆火,云计算正成为直接受益者。
这在我最近看到的两份行业报告里都得到验证。一份是2月12日,摩根士丹利(亚洲)发布研究报告《DeepSeek-Al Bifurcation》;另外一份是2月13日,国际数据公司IDC联合浪潮信息发布《2025年中国人工智能计算力发展评估报告》。
两份报告都明确了一个信息:DeepSeek崛起,云计算产业链受益最大。摩根士丹利(亚洲)认为,DeepSeek的爆火催生了低成本人工智能市场,为数据中心、芯片及云服务提供商带来新的发展机遇。
DeepSeek在重塑AI和云计算产业格局的同时,云厂商作为“AI卖水人”,也正迎来价值重构:DeepSeek的破圈,加速了云计算普及,也带来大模型用量的激增,随之释放出巨量的算力需求。
算力从哪里来?首要选择是云计算。也就是说,DeepSeek爆火的第一受益方就是云平台,尤其是能提供更高性价比、更低部署门槛、更方便开发AI应用的智能云。
为什么是云平台?
DeepSeek的核心创新价值在于,算法效率提升和成本大幅下降。DeepSeek曾公开V3的训练预算为“2048个GPU、2个月、近600万美元”。据多方测算,R1的整体成本约为OpenAI o1模型的1/30。
花小钱,办大事。DeepSeek也被称作“AI界拼多多”,相当于在OpenAI之外开辟了一个新赛道:未来AI投入逐渐将重心从预训练转向推理,会为云厂商带来更多算力需求。
这也恰是“杰文斯悖论”在大模型时代的写照:瓦特改良蒸汽机让煤炭燃烧更加高效,技术进步带来的变化是煤炭需求进一步飙升,而不是常规意识里的减少。如今DeepSeek将大模型推理成本压缩了97%,全球的算力需求却将因其高性价比反而呈现指数级膨胀。
英特尔前CEO基辛格、微软CEO纳德拉、英伟达CEO黄仁勋等业界大佬在最近都表达过类似的观点。比如黄仁勋在上周首次回应DeepSeek的影响时,认为“市场对DeepSeek的理解完全搞反了”,它不仅不会终结AI计算需求,反而会扩大并加速市场对更高效AI模型的追求,从而推动整个行业的发展。
云平台也就成了“DeepSeek时刻”最大受益者。作为大模型的底层算力支撑,云平台们及时提供适配的服务,让用户更轻松地实现从训练到部署,再到推理的全过程。甚至,云平台预训练或者蒸馏出各类模型,用户“接入即用”,极大简化了模型开发流程,“收拢”部分DeepSeek用户的需求。
要知道,部署“满血版”DeepSeekV3/R1,无论是硬件层面的推理优化能力,还是真金白银的经济成本,又或是流量进来后服务器压力和用户消耗成本,都不是普通用户所能承受的。
换句话说,云厂商们为了接住DeepSeek的这波流量,正不遗余力地提供全套服务,满足用户所需。据不完全统计,截至目前,已经有包括百度智能云、华为云、阿里云、腾讯云、火山引擎等160多家企业集体官宣上架或接入了DeepSeek:送token还限时免费,恢复原价后的模型输入、输出价格也低于DeepSeek官方价格。
比如,百度智能云千帆平台上架的DeepSeek-R1和 DeepSeek-V3模型则已全面融合千帆推理链路,集成百度独家内容安全算子,实现模型安全增强与企业级高可用保障,同时支持完善的BLS日志分析和BCM告警。
用户通过云厂商平台调用模型,可以得到三个方面的“辅助”:降低成本、提升大模型落地易用性以及助力企业更好地构建AI原生应用。
降低成本很好理解,从“买卡自建”到“租赁”算力,用多少买多少,在避免资源浪费同时,还降低了AI应用的初始成本;
云平台易用性对各行业应用 AI 起到了极大的推动作用。得益于云平台配备精调工具链、数据工具链、压缩工具链等实用工具链,企业可以更好地构建数据飞轮,实现模型效果的不断迭代,更好地提升应用性能。同时,云平台提供的工具链也适配了各种模型,企业随时可以切换模型,并且以最低门槛使用上效果更好的模型。
有业界观点表示,未来的云服务商必须同时具备模型研发能力、生态整合能力、场景落地能力的三重优势。通过云平台提供的便捷的工具型服务,解决大模型应用落地最后一公里问题,企业能更聚焦在自身的业务发展。
百度智能云:好用不贵
对开发者和企业甚至个人用户,也就是云厂商的客户来说,调用哪家的API没有差别,其关键诉求集中有两个:
一是缩短训练时间,或者直接调用。百度智能云事业群总裁沈抖此前提到,客户普遍希望能在两周内完成训练,最晚也应在一个月内完成;
二是降本。按照目前的硅谷规律,模型训练成本每年大约能降低四分之一。国内云厂商已经开启过多轮价格战,DeepSeek到来后,又对大模型价格砍一刀。
我简单用四个字概括它们的诉求,就是“好用不贵”。这也正是百度的优势所在,其底气是:百度是全球少有的具有全栈AI能力的公司,其自研的四层AI架构(云、深度学习框架、模型、应用)和端到端优化能力,让百度以更低的成本实现模型的高可靠性、安全性与高性能。这不仅大幅提升了模型训练和推理的效率,还进一步降低了综合成本。
以云基础设施层面万卡集群为例,要解决大模型训练、推理对算力需求近乎“变态”的增长问题,尤其是模型参数从百亿级、千亿级甚至万亿级的规模下,大模型企业就需要一万张及以上的加速卡,包括GPU、TPU及其他专用AI芯片,组成一个高性能的计算机系统,也可以叫做超级计算机,用于加速大模型训练和推理过程。
目前,包括微软、Google、Meta、X(推特)等国际巨头都已落子超万卡集群的项目部署,希望以合理的成本来获得可靠的算力。但因众所周知的限制,国产厂商构建万卡集群不是缺少资金,而是买不到足够多的合适的卡。于是,国产自主万卡系统也就成了必然选择,也是自主安全的选择。
近期,百度智能云成功点亮昆仑芯三代万卡集群,成为国内首个正式点亮的自研万卡集群。而且,百度智能云已经沉淀成熟的万卡集群管理和部署能力,进一步降低模型训练成本:百舸AI异构计算平台4.0已具备成熟的10万卡集群部署和管理能力,且在万卡集群上实现了99.5%以上的有效训练时长,能够将两种芯片混合训练大模型的效率折损控制在5%以内,达到业界最领先的水平。
据了解,在百舸4.0的支撑下,百度自研3万卡集群也已经在路上。从行业发展角度来看,百度通过自研大规模集群的建设,不仅解决了自身算力供应的问题,也有望推动模型降本趋势,为整个行业提供了新的思路和方向。
此外,百度在模型层还有优秀的MaaS平台,提供丰富且极具性价比的模型资源和开发工具:百度智能云千帆大模型平台已接入国内外上百个主流大模型,调用价格具有超高性价比,例如近期接入的DeepSeek的R1和V3模型,推理价格最低至DeepSeek官方定价的30%。
这一突破性进展的背后,是百度智能云在推理引擎性能优化技术、推理服务工程架构创新以及推理服务全链路安全保障上的深度融合。
数据显示,DeepSeek模型上线首日,已有超1.5万家客户通过千帆平台进行模型调用。目前,千帆已经帮助客户精调了3.3万个模型、开发了77万个企业应用。
此外,在框架层,百度拥有中国开发者使用最广的飞桨开源框架;在应用层有最近进行AI重构的百度搜索、近亿AI用户的百度文库等。
大模型算力价格战背后,本质还是AI应用的生态之争。百度之所以能做到“好用不贵”,是因为其已经跨过了前期投入与业务业绩兑现的时间差,打造出正向的AI应用生态。DeepSeek将开源的价值再次放大,算力需求膨胀使得百度有更大的操作空间来平衡AI的ROI、模型的成本效益和实用性。
百度智能云向着AI加速
当前,百度智能云在AI领域多年的积累开始迸发能量。在名称上,百度智能云就与其他云厂商有差别,是唯一一家在名字中含有“智能”二字的云厂商,这凸显了百度对AI能力的重视。据IDC发布的《中国人工智能公有云服务市场份额》报告显示,百度智能云在中国AI公有云服务市场整体规模排名第一,并且连续5年蝉联中国市场第一。
DeepSeek带来的平价化模型,将重构AI和云计算产业。这意味着百度将持续在自身的AI能力、云平台基础设施等自研的四层AI架构发力。百度智能云也将进一步明确自己的生态站位,承接住客户对云基础设施、模型能力和AI普惠的需求。
这一点,百度想“开”了。2025年至今,百度“顺势而为”,在“收割”DeepSeek流量上进行了多个大动作:
2月3日,百度智能云接入DeepSeek,首日即吸引1.5万家客户调用;
2月13日前后,百度宣布文心一言免费与开源。这两个动作能让更多开发者和企业,包括普通用户可以零门槛、低成本使用大模型,享受百度AI能力的红利,也在为百度智能云形成“开源引流+云服务变现”的模式蓄力。
最新的动作是,百度发布了百度 App 的大升级,宣布时隔20年回归经典标语“百度一下,你就知道”。百度希望通过整合文心大模型和DeepSeek大模型能力,在大模型时代重新定义搜索。
DeepSeek的冲击波还在继续,百度智能云也将迎来新的利好。李彦宏也给出承诺,未来AI技术依旧会进步得非常快,为此百度会对芯片、数据中心和云基础设施进行持续投入,来训练更好、更智能的下一代模型。他还提到,“随着我们的AI战略不断被验证,我们相信AI相关投入将在2025年带来更大的成果。”
这句话的注解是:百度在AI技术领域还在持续投入,而且百度将更加的务实,在与技术理想主义之间找到最佳平衡。因为李彦宏还补充了一句:“但我想强调的是,无论开源闭源,基础模型只有在大规模解决现实问题时,才具备真实价值。”