2025年,大模型在产业端加速行驶的轰鸣声正穿透技术的围墙。
这场始于技术、兴于场景的变革正在重塑各行各业的数字化版图。可以说,向产业化深入,就是当下人工智能最务实的命题。
当前,大模型正以前所未有的深度与广度融入千行百业,智能化转型的浪潮如火如荼:从金融业的个性化服务到营销场景的精准触达,到硬件终端的智能交互到教育科研中的定制化学习。
企业纷纷投入资源拥抱AI,随着大模型不再是遥不可及的“奢侈品”,一个核心问题便也浮出了水面:是谁在支撑企业级AI落地的“最后一公里”?

大模型热潮兴起以来,各行各业都在积极探索,如何接入大模型才能让其成为智能化转型的驱动力。
早在2024年,大模型应用就逐渐从早期探索阶段迈向了规模化落地。一个显著标志是,国内主流云服务商在2024年初“集体行动”,为企业提供大模型的一键部署、深度集成能力等,大幅降低了大模型商用的门槛。
IDC发布的 《中国公有云大模型服务市场格局分析 1Q25》 报告显示,2024年中国公有云上大模型调用量达114.2万亿tokens。随着国产大模型从2025年初引发全球关注,多模态模型、AI Agent的需求被激发,日均调用量的势头也继续保持着高速增长。其中,火山引擎以46.4%的市场份额位居中国市场第一,并且超过第二位和第三位的市场份额总和,呈现出断崖式领先的增长态势。
现象级浪潮的背后,潜藏着大模型领域的共识:大模型产业化落地已经成为了现实。今年上半年,大模型落地也呈现出了三点趋势:
第一,场景深化,价值从办公效率释放到了产业核心环节。
眼下,大模型正突破企业办公场景,深入金融、汽车、科技等领域的核心业务。这些高价值密度的产业率先将大模型从简单的“问答助手”,变成了业务创新的基座。
例如,目前不少银行正在通过大模型构建个性化内容社区。汽车行业则将大模型的能力应用于智能座舱、跨终端虚拟助手、智能营销等不同体验和转化手段中。制造业、能源业等数字化基础较弱的领域,也在加速引入大模型优化生产流程。
第二,企业从“被动创新”转为主动寻找落地点。
过去,企业更多地是出于技术焦虑或竞争压力被动尝试部署大模型,以边缘场景的轻量级验证为主,投入方面也谨慎且目标模糊,本质是一种“怕落后的被动接入”。
但今年以来,不少企业已经在基于明确的业务痛点主动“开发”落地点,解决实际问题。这也使得在现阶段的AI化探索中,大模型和云厂商不再只是产品服务商,还承担着“业务陪伴”和咨询的角色。
而技术对于行业认知的内化能力,也成为了大模型规模化落地的关键。
第三, 生态协同持续加强,云厂商成为了大模型落地的关键推手。
在大模型落地的命题上,除了大模型厂商和企业双方之外,云厂商、AI服务商、应用开发者等多方共建生态,已经从可选项变成了“必选项”。
其中,云厂商解决的是落地的“最后一公里”问题,其正在从算力提供者变成产业升级的基石,同时解决了落地成本高、多模型协同等痛点。例如字节跳动旗下云与AI服务平台火山引擎,在提供多模态模型的同时,还提供了搭建多云多模型的基础服务、Agent开发平台和全栈工具链等,帮助企业高效构建和部署AI应用。

时至今日,大模型产业化落地已经不再是一个需要被验证的概念,它正在各行各业如火如荼地加速发生:
截至目前,豆包大模型已在汽车、智能终端、互联网、金融、教育科研、零售消费等行业广泛落地,覆盖4亿终端设备、八成主流车企、70%系统重要性银行和数十家证券基金公司、近七成的 C9顶级高校和100多家科研院所。
譬如在金融领域,大模型应用让每一个普通投资者都能做出更“专业”的投资决策。
对于普通投资者来说,无法准确对各类金融产品的收益进行合理评估,一直是其区别于专业投资者与投资专家痛点。此时,若有一个金融产品能为投资者分析投资市场的热点,帮助其做出更合理的判断,这对于普通投资者可谓是再合适不过了,而国信证券与火山引擎的合作,恰巧满足了这一市场空缺。
通过对3000多名专业投顾的投研思维进行归纳沉淀,国信证券打造了国信股市助手智能体。该智能体基于豆包大模型、火山引擎智能体构建平台与Data Agent架构,能够做到深度赋能热点解析、行业研究及金融知识答疑等各类投资场景。

在普通投资者面对复杂的市场信息时,其可以实时抓取全网财经资讯,智能萃取超百万份深度研报,并链接百万级知识词条,再通过MCP多源信息处理中枢,追踪解析近十亿条财经短视频热度走向,智能识别真正驱动市场的焦点事件与情绪风向,有效过滤噪音,为普通投资者提供准确的信息及观点分析。
依托工程架构和大模型深度思考能力,国信股市助手还能像真实的专业投顾一样,在“快问快答”和“深思熟虑”两种模式间精准切换,让普通投资者在快速了解关键信息的同时,又能获取更清晰,更符合逻辑的分析思路。
此外,该助手也深度构建了智能体安全防护体系,对底层模型和上层应用构建了立体式防护屏障,通过多重加密机制、实时风险监测与动态防御策略,让投资行为更加安全可信。
汽车行业,大模型落地的方向则更加多元化。
在人车交互场景步入应用化时代以后,不够智能、不够实时、不能多端协同、不够懂用户等问题也随之出现。
在如何通过大模型重塑“人车关系”这个命题上,每家车企都给出了自己的答案。如上汽大众、奔驰、宝马,几乎都在同一时期与火山引擎合作,应用方向却不同。
几个月前,上汽大众与火山引擎在AI汽车共创上实现深度合作,以豆包大模型为基础,在智能座舱创新、车载内容生态、企业数字化提效等领域展开全面共创。目前,旗下子品牌上汽奥迪已经依托豆包大模型,与火山引擎共创了奥迪助手App,突破性地实现了跨端交互能力。这也意味着,车主下车后可以通过手机端继续与奥迪助手进行未完成的对话,从而实现跨场景的连续性陪伴。
奔驰则是将大模型落地到了新产品的竞争力之中,率先将大模型的能力落地到了全新纯电长轴距CLA车型中。该车型接入了豆包大模型以后,智能人机交互系统能够识别和反馈车主多维的情感状态。通过情绪需求的传达,虚拟助手能够更细致地联动车辆功能,让车机体验持续进化。

宝马与火山引擎的合作更加聚焦智能营销领域。双方打造基于AI的营销工具,致力于缩短客户购车的决策链路。
目前豆包大模型已经覆盖了80%主流汽车品牌,由此可见,融合了大模型的智能汽车正在重塑汽车行业的竞争核心力。
教育科研行业,大模型的落地支点在于通过协同管理的提效,释放教学的个性化创造力,提供更便捷的校园服务。
南开大学作为走在教育智能化前沿的高等学府,2023年启动了“数字南开”的项目,目前正在和火山引擎共建国内“AI+教育”的标杆案例。火山引擎从基础设施构建、模型服务、数据治理和场景服务等层面为南开大学提供了底座能力,并在全校范围内开放了大模型应用开发平台,让师生能够在日常教学、科研数据处理、管理与服务等不同的板块中,自主开发和应用AI的能力,让创新的意识和成果迸发于校园教育阶段。

而在浙江大学内,火山引擎为其打造了“浙大先生”大模型应用体系。其中,AI科学家作为“浙大先生”体系中的一站式科研智能平台,集数据整合、文献梳理、科研信息获取与撰写辅助等功能于一体,通过大模型为用户提供全学科、多语种、多模态数据处理支持,助力高效完成选题分析、资料查找、趋势判断与内容生成,全面提升科研效率与质量。

无独有偶,同济大学依托火山引擎 HiAgent 平台,搭建校园 AI 应用创新平台,打造专属智能助手“同济同学”。基于该平台,同济大学打造了“同心云”AI 应用设计大赛,推动 AI 能力自主开发与场景落地。从实际效果来看,“同济同学”的落地不仅实现了校内多系统智能互通,也为全校师生提供了更加便捷与高效的服务。
在智能终端领域,语音助手、AI搜索等作为厂商的智能化转型关键场景,如何实现大模型的安全高效部署与实时响应,已成为行业的核心需求。
在AI时代,“安全无感”的工程化能力几乎是云厂商独有的优势。对于联想来说,无论是个人云还是企业部署场景,终端和云的协同计算中,数据都需要确保“绝对安全”,同时让大模型推理变得更快。
在这个问题上,火山引擎的Jeddak AICC机密计算平台携手联想在两个层面实现了破局。
第一,通过全链路加密保障大模型隐私安全。全链路100%的加密计算,为用户创建了“安全屋”,通过内置的硬件隐私保护机制,让用户输入的prompt能够通过完全加密的环境传入。同时通过透明自证机制确保开发者可验证计算过程安全性,从根本上解决端云协同中私有数据泄露的风险。
第二,实现了安全与性能的兼得。在隐私加密的环境下,大模型推理速度和终端智能化效果“不打折”。依托双方深度技术优化,Jeddak AICC在加密模式下的端到端用户感知延迟接近明文模式 ,大模型推理效率也几乎无损。终端用户仍能获得与明文环境一致的快速、精准智能化响应,同时享受安全防护。
在消费零售领域,大模型的目标是让数字消费的体验和服务“更有温度”。
比如,瑞幸在豆包大模型的助力下,开发了搭载意图识别与槽位抽取引擎的智能体,能够基于历史订单数据精准预测和实时响应消费者的点单需求。而在订单高峰时段,火山引擎的资源保障和性能压测支持方案,则让“智能咖啡管家”获得稳定且充沛的算力资源,带来流畅的点单体验。

为一个行业做好完整的大模型服务,已经成为了云厂商未来竞争的关键。在这一点上,火山引擎吃到了大模型加速落地的“红利”。这与豆包大模型在B端的强势表现、火山引擎在多个行业的大模型产业化落地成果密切相关。
当下,将大模型越来越强的通用能力,借力云厂商的一站式服务和行业认知,转化为行业解决方案,是产业智能化最直观的落地引擎。
未来,随着多模态模型的优化和降价,大模型的产业化价值也将进一步提升。

当前,大模型规模化落地还面临几个关键挑战:
第一,模型能力与安全效率的平衡,在满足高并发、低延迟的线上服务要求的同时,也要确保模型的响应速度和生成质量,这是技术落地的核心挑战 。
第二,高昂的成本压力。大模型的训练和推理,尤其是大规模的部署和应用,对算力资源消耗巨大,也成为了企业规模化应用的主要障碍之一 。
第三,落地难度。将大模型能力有效集成到现有业务系统中,适配不同行业的具体场景,并保证应用的稳定性和性能,需要深厚的技术积累和工程化能力。
那么,为什么在当下的大模型落地进程中,豆包大模型和火山引擎呈现出了“抢跑”的身位?除了豆包大模型自身的表现和口碑之外,火山引擎在云与AI服务端的优势,也满足了加速大模型落地需要具备几个“硬实力”。
首先,大模型能力做到了通用且行业高适配。
模型本身要“强”,也要“专”。在通用能力上,豆包1.5深度思考模型在数学、代码、科学等专业领域推理任务中,已经达到或接近全球第一梯队水平,非推理任务中也展示出了优秀的泛化能力。
而在行业方面,豆包大模型家族本身就具有跨行业穿透的能力。日均12.7万亿tokens使用量的场景打磨和跨模态推理的持续迭代,能将技术参数转化为开箱即用的产业级能力。再加上火山引擎在长期服务中沉淀的行业解决方案,大模型的通用能力被解构到一个个具体业务场景中的门槛就低了很多。
其次,优化模型使用成本,降低了企业忧虑。
算力成本一直以来是大模型落地的“阿克琉斯之踵”。而在字节业务资源池分钟级调度10万核CPU的调度能力下,火山引擎通过技术手段实现了大模型推理成本的优化。针对AI工程方面,比如对底层的异构算力,还实现了混合调度和分布式推理等优化,这些都让推理成本实现了大幅降低。
去年,豆包大模型千tokens的输入价格已经被压缩到了0.0008元,打破算力成本壁垒,推动大模型价格进入了“厘时代”。因此,技术的普惠化,也是火山引擎的“服务敲门砖”。
最后,火山引擎的一站式全栈服务,让大模型规模化落地变得低门槛。
更易落地,考验的是大模型和云厂商的工程能力,火山引擎的解法是“AI云原生”。早在2022年,IDC发布的《云原生AI-加速AI工程化落地》就提出,AI云原生有能力充分优化AI成本和效能、简化AI开发部署。如今,AI云原生仍然能解决大模型部署的复杂性。而火山引擎 AI 云原生便整合了全栈推理加速、最佳工程实践、高性价比的资源、安全易用和良好的端到端体验等优势,为火山方舟提供了强有力的支持。
比如在部署DeepSeek的时候,部署调用的响应性能对于生成效果有很大影响。如今,这也使得不少企业都将目光转向了云端,选择通过火山方舟调用API接入,同样可以实现20ms以内的低延迟。
此外,火山引擎还提供了AI应用开发平台扣子和HiAgent平台等工具,帮助企业实现AI落地。扣子封装了各大模型的API,方便开发者快速调用模型。HiAgent则支持企业快速开发AI应用和智能体,降低技术门槛。
根据基调听云、superCLUE等第三方测评,在火山引擎 AI 云原生以模型为核心全栈推理效率优化下,火山方舟调用的DeepSeek在推理速度、完整回复率等方面都表现出色,综合能力排名第一。
目前,火山引擎和豆包大模型的组合,确实已经做到了价格更省、行业理解更专业、工程落地更简单。再加上高性价比资源、安全易用、端到端体验等优势,AI云原生服务使得火山引擎在AI时代“异军突起”,被越来越多的企业选择。
今年下半年,大模型产业化还将沿着多模态融合和深度推理两大方向持续演进。图像、视频类大模型将迎来爆发式增长,将多模态能力变得更简单的Agentic AI,也将快速崛起。
观研天下预测,中国B端AI Agent市场规模有望在2025年增长至1718亿元,B端占比超过99%,这一趋势有望长期持续。
当下,Agentic AI的能力上限仍有许多不确定性,但也已经沉淀出了一些企业切实可用的经验。据了解,在火山引擎即将于6月11日-12日举办的2025春季 FORCE原动力大会上,“如何让智能体自主打工”、“如何一站式开发AI Agent”等实战问题也成为了重要主题。
未来三到五年内,大模型或将成为企业水电般的基础设施。而云厂商需要做的,正是拆掉技术的“高墙”,让AI的能力在产业的土壤中自由生长。