首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    腾讯混元发布开源加速库,生图时间缩短75%

    6月6日,腾讯发布针对腾讯混元文生图开源大模型(以下简称为腾讯混元DiT模型)的加速库,让推理效率大幅提升,生图时间缩短75%。 //使用门槛,降低了 腾讯混元DiT模型的使用门槛也大幅降低。用户可以基于ComfyUI的图形化界面,使用腾讯混元文生图模型能力。同时,腾讯混元DiT模型已经部署至Hugging Face Diffusers通用模型库中,用户仅用三行代码即可调用腾讯混元DiT模型,无需下载原始代码库。 此前,腾讯宣布旗下的腾讯混元文生图大模型全面升级并对外开源,可供企业与个人开发者免费商用。这是业内首个中文原生的DiT架构文生图开源模型,支持中英文双语输入及理解;采用了与 sora 一致的DiT架构,不仅可支持文生图,也可作为视频等多模态视觉生成的基础。 腾讯混元DiT模型开源之后,受到了众多社区开发者的认可。开源不到一个月,项目Github Star数就超过2100,位于开源社区热门DiT模型前列。

    01

    上交大 & 上海 AI 实验室 & ViVO 强势推出 TerDiT ,极低比特量化感知训练和和高效部署方案 !!!

    大规模预训练文本到图像扩散模型的进展导致了成功生成具有复杂性和对输入条件高保真的图像。特别是基于 Transformer 架构的扩散模型的出现,在这一研究领域中代表了重要的进步。与其他扩散模型相比,扩散 Transformer 已经展示了以更高的计算Gflops实现更低FID分数的能力[6]。近期的研究突显了扩散 Transformer 架构在图像生成能力方面的卓越表现,如Stable Diffusion 3[7]等方法,以及在视频生成方面,如Sora2所展示的出色性能。鉴于扩散 Transformer 模型的卓越性能,研究行人现在越来越多地研究这些视觉模型的扩展规律[8],这与大型语言模型(LLMs)相似。

    01

    上交大 & 上海 AI 实验室 & ViVO 强势推出 TerDiT ,极低比特量化感知训练和和高效部署方案 !!!

    大规模预训练文本到图像扩散模型的进展导致了成功生成具有复杂性和对输入条件高保真的图像。特别是基于 Transformer 架构的扩散模型的出现,在这一研究领域中代表了重要的进步。与其他扩散模型相比,扩散 Transformer 已经展示了以更高的计算Gflops实现更低FID分数的能力[6]。近期的研究突显了扩散 Transformer 架构在图像生成能力方面的卓越表现,如Stable Diffusion 3[7]等方法,以及在视频生成方面,如Sora2所展示的出色性能。鉴于扩散 Transformer 模型的卓越性能,研究行人现在越来越多地研究这些视觉模型的扩展规律[8],这与大型语言模型(LLMs)相似。

    01
    领券