3月19日,2025腾讯全球数字生态大会上海峰会召开,腾讯集团高级执行副总裁、云与智慧产业事业群CEO汤道生,详细解读了腾讯最新的AI大模型战略。
汤道生表示,随着Deepseek的开源与深度思考的突破,AI大模型正跨过产业化落地的门槛,站上普及应用的全新节点。腾讯将立足用前沿的技术,打造“好用的AI”,为用户提供有实效、有温度、可进化的智能产品和解决方案,助力大家的美好生活,推动实体产业创新突破。

腾讯集团高级执行副总裁、云与智慧产业事业群CEO 汤道生 腾讯官方
多模驱动,全力夯实大模型底座
“大模型技术是智能AI应用的基础。”汤道生表示,腾讯一方面坚定不移的推进大模型的全链路自研,另一方面,也积极拥抱先进的开源模型,让用户针对不同场景自由选择,满足各自对场景与性价比的要求。
2023年,腾讯推出了腾讯混元大模型,率先采用MoE架构,旗舰模型参数规模达万亿级,各项能力稳居国内第一梯队。最近又推出新一代快思考模型混元Turbo S,对大多数通用任务,实现“秒级响应”,首字时延降低近一半。此外,更擅长完成复杂任务、深度推理的混元T1模型,也即将推出正式版。
针对开源模型,腾讯一直保持开放兼容的态度。春节过后,用户迫切期望用到深度推理能力,腾讯就快速响应用户需求,无论是面向C端的腾讯元宝、微信搜一搜、ima、地图等应用,还是面向开发者的大模型知识引擎、CloudStudio、腾讯云AI代码助手等平台工具,都支持腾讯混元和DeepSeek的“双模调用”。
用户优先,打造高可用智能产品
“大模型是AI应用的核心,但好的模型还需要搭配实用的场景、权威的内容来源、稳定的算力服务,才能在用户需要的时候,提供可靠的AI服务。”汤道生表示。
比如腾讯元宝,近期在应用市场快速崛起,正是得益于腾讯云智算强大的算力支撑与海量的运维经验,使得用户使用的时候流畅 “不卡顿”。同时,叠加了自身积累多年的多模态能力,元宝能够对用户发送的图片做分析理解与优化处理。
除此之外,元宝还利用了全网最优质的微信公众号内容,以及强大的“联网搜索”能力,确保了检索和生成结果的质量和时效性。最近,它还与腾讯文档打通,用户可以直接上传腾讯文档到元宝,也能一键导出对话到腾讯文档,极大方便用户使用。
在大模型产品化的过程中,知识库至关重要。汤道生认为,模型是“大脑”,知识库是“课本”,“大脑智商再高,如果没有学过相应的知识,也无法很好地解决问题。”
他讲到,元宝与微信公众号内容的融合,就是将大模型与公网知识库结合,基于类似的原理,腾讯推出了智能工作台ima,将模型与个人知识库融合,助力高效的工作和学习;企业同样可以将大模型与企业知识库结合,打造更懂业务的AI,让AI助力营销、客服和研发,提高市场竞争力。比如最近,腾讯乐享就上线了AI知识库功能,将深度思考与企业专属知识结合,获得了更强大的智能问答能力,为企业缩短了新员工培训的时间,提高了员工专业水平、客户的满意度以及销售转化率。
扎根产业,全链路支撑AI落地提效
当前,还有很多企业,对大模型有定制化的使用需求,汤道生表示,腾讯也会提供从算力到模型部署、产业落地的全链路支持,帮助企业结合自身场景与数据,训练自己的行业大模型,打造企业级的AI中台,让数据可以统一管理与复用,支撑在生产、销售和服务等环节的智能应用。
比如,腾讯云TI平台能够帮助开发人员一站式完成混元、DeepSeek、Llama等主流模型的精调与推理,覆盖数据获取、处理、模型训练、评估、部署到应用的全流程,数据标注成本下降70%,模型训练效率提升30%,同时支持公有云、私有云及专属云部署。
腾讯云大模型知识引擎也通过提供RAG(文件检索)、Workflow(工作流)、Agent等多种应用开发方式,加速大模型应用的落地。“企业可以获得稳定和精确的多模态知识问答效果,也可以用拖拉拽的简单方式,编排企业专属的工作流,快速搭建符合实际场景需要的大模型应用。”
另外在算力层面,腾讯云通过整合高性能计算、存储、网络、加速套件、云原生智能调度编排等能力,推出了腾讯云智算套件。模型训练的千卡日均故障率,仅为业界水平的三分之一;千卡集群训练的并行加速比达到96%,通信时间占比缩短到6%。此外,通过软硬件技术能力的整合,腾讯云智算集群从机器上架到开始训练,最快只需要1天。
据了解,目前腾讯云大模型已在政务、零售、金融、工业、医疗、教育、文旅等30多个行业落地,助力各行各业打造新质生产力,以智能化实现增长突破。