如今,如何用更低的成本实现更高的效能,成为众多企业数字化转型当中首要关注的问题。
在AI领域,大家为了追求高精度业务效果,往往会使用数据训练模型和深度学习网络,进行分布式大规模机器训练,然后将复杂高精度模型进行推理服务部署。
整个过程中,因处理数据、搭建基础训练和推理环境会带来较高的人力成本,因训练周期长以及推理时延高会带来较高的机器成本。
腾讯云TI-ONE平台可在两方面都帮客户降本增效,通过在数据接入加工、模型训练、模型服务等阶段提供平台化能力帮客户降低人力成本;通过在训练和推理两个阶段提供TI-ACC加速工具,实实在在的帮客户降低机器成本,在掌控科技客户的案例中,帮客户降低了50%硬件资源投入。
下面就为大家详细介绍TI-ACC加速工具如何能为客户降本增效。
1
TI-ACC性能强大
TI-ACC加速工具分别在训练和推理阶段提供加速能力,针对推理加速,TI-ACC在不影响推理精度前提下,针对主流开源模型库中80%以上的模型加速比可达2x以上,其加速效果较市面开源方案均有明显优势。
以AI商品识别服务商掌控科技为例,该客户采用了高精度模型,而随着业务规模扩大,其GPU卡资源投入成本不断提高,降本诉求也愈加强烈。采用TI-ONE平台后,客户将TI-ACC加速优化后的模型部署在生产环境,推理性能相比客户baseline提升了100%,云资源成本支出得到50%有效降低。
TI-ACC在推理阶段之所以有这么强大的性能,主要是因为底层使用了TNN作为基础框架。TNN是优图实验室结合自身在AI场景多年的落地经验,向行业开源的部署框架。TI-ACC在底层TNN接口基础上进行产品化封装,面向算法和业务工程师提供一键式推理加速功能。
TI-ACC在训练加速上也取得了诸多记录,比如ImageNet 128卡多机训练记录,在腾讯公有云25Gbps的VPC网络环境,使用128块V100,在2分31秒内训练 ImageNet 28个epoch,TOP5精度达到93%。若跨机网络改为RoCE,则训练时间进一步减少到2分2秒。
2
TI-ACC功能丰富
TI-ACC支持各类主流模型格式无需转换直接接入优化,如TorchSript、MMDetection、Detectron2等,另外覆盖CV、NLP、推荐等场景,同时也包含了无损、FP16以及INT8量化等丰富的推理加速优化手段。
3
TI-ACC使用便捷
TI-ACC推理加速在TI-ONE平台上的使用十分便捷,仅需三步:
1 | 模型上传:将保存在腾讯云对象存储COS上的模型包上传到模型仓库; |
---|---|
2 | 模型优化:新建优化任务对纳管在模型仓库的模型进行优化并将与原模型格式同样的优化模型保存回模型仓库; |
3 | 启动服务:将优化后的模型在TI-ONE平台发布服务并通过API调用。 |
操作完以上三步即可享受到TI-ACC推理加速带来的降本增效效果。详细步骤请参考
以上,就是本次为大家带来的关于TI-ONE平台为客户降低机器成本的解密啦,欢迎大家来体验使用TI-ONE公有云版本以及TI-ACC的加速能力。
欢迎有项目合作咨询的客户,扫码进行1V1交流
了解详细产品信息,快戳阅读原文联系我们
腾讯云AI生态计划
腾讯云AI,依托腾讯优图实验室、腾讯AI Lab、腾讯多媒体实验室、微信智聆、微信智言等腾讯顶级实验室的产品和技术能力,持续引入生态合作伙伴,共建AI生态。通过授权认证、商机共享、技术共建、平台助力、品牌升级、标杆打造等合作形式,帮助合作伙伴和客户高效打造针对性的解决方案,助力各行各业的数字化和智能化转型。
END
更多AI资讯,你可能感兴趣
▼