腾讯混元大模型迎来再次开源!
刚刚,腾讯混元又开源了两个重磅模型:最新的MoE模型「混元Large」以及混元3D生成大模型「Hunyuan3D-1.0」正式开源。开发者可在HuggingFace、Github等技术社区直接下载(链接请见阅读原文)。
这次开源的腾讯混元Large模型,与腾讯混元Pro、腾讯混元Turbo等不同尺寸的模型源于同一技术体系,已经在腾讯内部业务经过验证和广泛使用。
腾讯元宝、微信公众号、小程序、微信读书、腾讯广告、腾讯游戏、腾讯会议等近700个内部业务和场景,都应用了混元大模型的能力。
腾讯会议AI助手
腾讯混元Large模型总参数量 389B,激活参数量 52B ,上下文长度高达256K。它采用国内外主流的MoE架构模型,推理成本远低于同等参数的稠密模型。
在最新的公开评测中,腾讯混元Large模型在CMMLU、MMLU、CEval、MATH等多学科综合评测集以及中英文NLP任务、代码和数学等9大维度全面领先。
同时,腾讯云TI平台也正式宣布,已经全面完成「混元Large」模型的适配和上架,为广大企业和开发者提供一键精调和推理服务,这也进一步扩展了腾讯云在大模型领域的生态布局,为产业智能化升级提供了强有力的技术和平台支持。
除了腾讯混元大模型之外,目前TI平台也已广泛接入了Llama 3、Baichuan等市场主流开源大模型,支持快速发起训练任务或部署推理服务,使用流程简单、开发效率高。
实战导向的大模型精调工具链,提升企业业务效能
腾讯云TI平台致力于打造实战型大模型精调工具链,帮助用户训练出符合业务需求的高效模型,缩短开发周期并提升研发效率。平台支持灵活的数据准备和标注流程,并提供一键启动精调和推理任务的功能,大幅简化企业级用户的操作流程。
精调之前的数据准备,从繁琐的数据清洗到耗时的数据标注,都需要一个高效的工具平台,一份高质量的训练数据对精调模型达标起着至关重要的作用。腾讯云 TI 平台沉淀了腾讯优图实验室算法专家清洗大模型训练数据的优质Pipeline,支持开箱即用;平台面向大语言模型和多模态大模型的标注工具非常灵活,基于数据集 Schema,可完全自定义工作台,支持的大模型标注场景包括但不限于高质量文本问答对筛选、文本数据清洗、图片问答对审核/修改、图片问答竞品评测、图片多轮问答、多模态阅读理解、图片文本描述等所有文生文、图生文类的场景;腾讯云TI 平台具备卓越的云原生特性,对接用户的云文件系统后,无需数据拷贝,标注结果直接保存在原文件路径。
在精调训练阶段,腾讯云TI平台内置了腾讯混元模型及其他主流开源模型,用户可以一键发起精调任务。通过硬件容错、容器调度、任务断点续训的三层保障机制,平台确保大规模训练任务的稳定性。另外,借助腾讯自研的Angel加速机制,腾讯云TI平台整体提升了训练性能30%,不仅加快了混元大模型的精调过程,还有效降低了资源消耗。
与此同时,腾讯云TI平台还提供了一整套完善的模型评测工具,包括在线轻量体验、客观评测以及主观评测。这些评测功能让企业能够根据实际业务需求,对模型效果进行全方位的验证,确保在应用场景中的高效表现。
全面适配国产算力,满足异构计算需求
目前,腾讯云TI平台已完成对国产计算卡的适配,有效满足了相关企业对安全性和独立性的高标准要求。
在适配过程中,凭借腾讯优图实验室在相关训练方面的多年丰富经验,腾讯云TI平台成功应对了千卡规模集群中的多项技术挑战。最新支持异构算力的统一纳管,实现了ARM架构和X86架构芯片服务器算力资源可通过一个控制台进行统一纳管,在当下算力资源紧张的情况下,帮助客户最大限度整合现有资源。
通过优化系统架构和技术流程,腾讯云TI平台有效解决了性能、兼容性等关键问题,确保了混元大模型在国产硬件上的流畅运行,保障用户在自主可控环境中仍然可以获得卓越的算力和推理性能。
最后,说重点
申请混元大模型精调资源👇
TI平台x混元Large上手指南👇
腾讯云智能生态计划
腾讯云智能,依托腾讯优图实验室、腾讯AILab、腾讯多媒体实验室、微信智聆、微信智言等腾讯顶级实验室的产品和技术能力,持续引入生态合作伙伴,共建智能生态。通过授权认证、商机共享、技术共建、平台助力、品牌升级、标杆打造等合作形式,帮助合作伙伴和客户高效打造针对性的解决方案,助力各行各业的数字化和智能化转型。
END