Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >AIGC时代,深度学习模型部署你迟早得学习,不如趁早!

AIGC时代,深度学习模型部署你迟早得学习,不如趁早!

作者头像
OpenCV学堂
发布于 2023-08-22 05:26:22
发布于 2023-08-22 05:26:22
3220
举报

微信公众号:OpenCV开发者联盟 关注获取更多计算机视觉深度学习知识

深度学习工程师做什么

深度学习已经改变了很多行业,深度学习工程师已经是不折不扣的高薪职业,但是也有越来越内卷的趋势,以前只要求会训练模型就可以了,现在多数深度学习工程师岗位都要求掌握模型训练与模型部署。

可以毫不夸张的说,以后只有既会训练,又会部署而且是会C++部署模型的深度学习工程师才会继续高薪之路,否则按照这个内卷趋势,只会训练模型,不会部署模型的深度学习工程师必然会受到后来开发者越来越多的挑战,前期积累的优势荡然无存。所以 掌握从数据标注、到模型训练、到模型部署技能 是深度学习工程师基本要求,也是未来的必然趋势。

深度学习模型部署场景

深度学习模型部署场景主要包括:

01

云部署场景

主要是基于云服务器与分布式服务提供,企业需要支付云服务器算力费用与存储费用。优点是便于扩展,方便在多个位置与节点快速部署使用模型算法;缺点是与边缘部署相比,延时比较高,可靠性比较低,数据安全受到挑战,没有充分利用边缘设备算力。

02

边缘(PC端侧)部署场景

高性能应用的理想选择、高度可定制(使用与应用程序相关的部件构建)、灵活的定价(因为可以根据应用选择组件)。优点是成本可控,数据安全有保证,低延时高可靠,因此在机器视觉、安防监控等领域都大量采用该方案,依靠工控机+显卡的方式提供算力实现模型部署,支持缺陷检测、安防监控、自动化生产等。缺点是对一些成本特别敏感的行业依然无法大量采用该方案。

03

边缘(ARM、FPGA和推理板卡,智能相机)

边缘与端侧部署一个很重要的场景,典型的就是各种人工智能盒子,包括英特尔的NUC盒子,最新推出AlxBorad板卡,英伟达的Jetson系列板卡,RK系列的板卡、树莓派等,已经基于他们实现的各种智能设备。他们的优点是低成本,低功耗、显著节省外围硬件算力,同时高可靠性,安全,适用于对算力要求不是很严苛的场景,支持各种轻量化的模型部署。缺点是对深度学习开发者要求较高,要求对模型进行量化,各个板卡支持的模型部署框架不同,工具链软件也不一样。

模型部署框架

常见的主流模型部署框架主要包括:OpenVINO、TensorRT、ONNXRUNTIME,深度学习开发者至少应该掌握一种深度学习模型部署框架。英特尔CPU/GPU上模型加速与推理最佳选择是OpenVINO;英伟达GPU上模型加速与推理最佳选择TensorRT;兼容不同硬件厂家平台模型算子支持度高,兼容性强最佳选择是ONNXRUNTIME。三种框架均支持C++与Python语言,支持多种操作系统上运行。

掌握三种主流的深度学习模型部署框架,实现模型在CPU、GPU、AMD等不同平台硬件上加速推理最佳性能。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-07-15,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 OpenCV学堂 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
NVIDIA关于AI部署的最新技术(附资料)
不得不相信英伟达总能给我们惊喜,老潘作为一名深度学习从业者以及游戏爱好者,对于这种与AI、GPU、并行计算相关的话题一直都是比较感兴趣。作为深度学习第一大硬件平台的英伟达,我们自然熟悉的不能再熟悉了。
老潘
2021/08/22
1.6K0
深度学习模型部署主流框架三剑客介绍
深度学习工程落地分为两个主要阶段,分别是数据准备、模型训练、模型部署三个主要阶段。
OpenCV学堂
2023/08/22
6350
深度学习模型部署主流框架三剑客介绍
黄仁勋GTC主旨演讲:从摩尔定律的尽头到深度学习大爆炸,发布新一代GPU,市值突破700亿美元( PPT)
【新智元导读】英伟达CEO黄仁勋一年一度的GTC主旨演讲凌晨结束,新智元第一时间带来了深度报道(带PPT的)。本次大会最受关注的是,英伟达发布了新一代的GPU,涉及不少新的技术,比如tensor。此外, 还有“面向TensorFlow 的TensorRT”、“英伟达GPU云”“AI 研究基础设施DGX-1和DGX Station”、“开源 Xavier DLA ” 等等。黄仁勋从摩尔定律走向消亡谈起,一直说到深度学习的大爆炸。一起来看看股票涨幅“不可阻挡”的英伟达都有哪些布局。 5月11日凌晨,英伟达CEO
新智元
2018/03/28
1.1K0
黄仁勋GTC主旨演讲:从摩尔定律的尽头到深度学习大爆炸,发布新一代GPU,市值突破700亿美元( PPT)
微软开源ONNX Runtime,想用什么深度学习框架任你选!
ONNX Runtime是适用于Linux,Windows和Mac上ONNX格式的机器学习模型的高性能推理引擎。
新智元
2018/12/24
2.8K0
DeepSeek模型:从压缩到实战,性能飞升全攻略(2/18)
摘要:随着深度学习模型在实际应用中的广泛部署,模型的计算资源消耗和推理速度成为关键问题。本文以 DeepSeek 模型为例,详细探讨了模型压缩与加速的实战方法,包括知识蒸馏、量化部署以及移动端推理性能优化。首先,介绍了知识蒸馏技术在轻量化模型中的应用,通过教师 - 学生模型架构,将复杂模型的知识迁移到轻量化模型中,显著提升了模型的性能。其次,详细阐述了量化部署的流程,包括 TensorRT 和 OpenVINO 的适配方法,通过量化技术优化模型的精度和推理速度。最后,对比了 CPU、GPU 和 NPU 在移动端推理中的性能表现,提出了针对不同硬件的优化策略,并通过实验验证了优化后的性能提升。本文的研究结果表明,通过综合应用知识蒸馏、量化部署和硬件优化,可以在保持较高模型精度的同时,显著提高推理速度,降低计算资源消耗,为深度学习模型的实际部署提供了有价值的参考。
正在走向自律
2025/02/14
5550
DeepSeek模型:从压缩到实战,性能飞升全攻略(2/18)
AI规模化落地,英特尔至强的七重助力
当今时代,各行各业与人工智能(AI)加速融合,通过智能化创新来寻求业务转型升级。与为数不多的顶级AI研发公司相比,大多数传统行业或企业有着更丰富的 AI 应用场景,推动着规模化的AI应用落地,其AI应用更具有实践意义。然而,在智能化技术架构和平台选择上,它们又往往面临着“拿着钉子到处找锤子”的尴尬局面。
AI科技大本营
2019/08/20
7140
AI规模化落地,英特尔至强的七重助力
业界 | 英特尔第一届AI开发者大会:从芯片到软件看英特尔AI雄心
作者:Tony Peng 中文编译:路 5 月 23 日,英特尔第一届 AI 开发者大会 AIDevCon 开幕,该大会为期两天,在旧金山艺术宫举行。第一天,英特尔详细介绍了它们在 AI 方面的雄心壮志。 英特尔严肃看待人工智能。去年,这家 50 岁的芯片巨头和 CPU 市场领导者成立了 AI 产品事业部(AIPG),由副总裁 Naveen Rao 领导,他曾创立 Nervana,该公司于 2016 年被英特尔收购。 在今早的 keynote 演讲中,Rao 称英特尔的目标是为 AI 开发者搭建完美的计算
机器之心
2018/06/12
6550
FastDeploy全场景高性能AI部署工具:加速打通AI模型产业落地的最后一公里
飞桨目前为开发者提供了涵盖多种领域的模型套件,开发者可以使用这些套件基于自身数据集快速完成深度学习模型的训练。但在实际产业部署环境下,开发者在部署模型到不同硬件和不同场景时面临以下三个痛点问题。
用户1386409
2023/03/06
7610
FastDeploy全场景高性能AI部署工具:加速打通AI模型产业落地的最后一公里
FPGA在深度学习应用中或将取代GPU
人工智能的兴起触发了市场对 GPU 的大量需求,但 GPU 在 AI 场景中的应用面临使用寿命短、使用成本高等问题。现场可编程门阵列 (FPGA) 这一可以定制化硬件处理器反倒是更好的解决方案。随着可编程性等问题在 FPGA 上的解决,FPGA 将成为市场人工智能应用的选择。
FPGA技术江湖
2021/04/14
1.1K0
FPGA在深度学习应用中或将取代GPU
算法、硬件、框架,2019年AI何去何从?
过去一年,关于人工智能的事件、发现和发展比比皆是。很难从这些嘈杂的环境里分辨出关于 AI 的真实信号,即便可以,很多人也不知道那些信号表达的是什么信息。因此,我将尽力提炼过去一年里人工智能大环境中的一些模式来让你明确这一点。甚至,我们会在不久的将来见证其中的一些趋势。
机器之心
2019/03/15
5980
算法、硬件、框架,2019年AI何去何从?
AI部署以及工业落地学习之路
最近在复盘今年上半年做的一些事情,不管是训练模型、部署模型搭建服务,还是写一些组件代码,零零散散是有一些产出。
老潘
2021/08/07
1.6K1
使用OpenVINO在 “云-边-端” 快速实现高性能人工智能推理
人工智能、无所不在的计算、无处不在的连接、从云到边缘的基础设施是驱动创新与变革的四大超级力量。近日,在“英特尔AI开发者私享会”现场,英特尔AI 软件布道师武卓分享了在云端和边缘端实现高性能人工智能推理的一些特点与好处。 (英特尔AI 软件布道师武卓线上分享) 云规模开发具有很多的好处:云端能很好的支持多种不同的AI框架和服务,另外在云端可以简化训练开发,比如无需软件下载、无需配置、无需安装,可以直接使用云端所提供的计算资源和服务。‍‍在边缘端进行推理也有很多优势:由于数据通常是在边缘端产生和采集的,‍‍
SDNLAB
2022/07/12
1.5K0
使用OpenVINO在 “云-边-端” 快速实现高性能人工智能推理
只有4%的公司让AI计划真正落地?如何成为AI马拉松领跑者
如同他的演讲题名「AI,在实践中前行」,这一届人工智能大会与半年前在旧金山举办的英特尔首届第一届 AIDC 相比,在展示硬件产品与工具、阐释其开发理念的基础之上,英特尔引入了更多为特定应用场景高度定制的案例、邀请了更多来自各行各业的合作伙伴进行经验分享。
机器之心
2018/12/14
5370
【AI模型】AI模型部署概述
在AI深度学习模型的训练中,一般会用Python语言实现,原因是其灵活、可读性强。但在AI模型实际部署中,主要会用到C++,原因在于其语言自身的高效性。
DevFrank
2024/07/24
7481
边缘深度学习设备基准评测:英伟达Jetson Nano胜出
人类产生和收集的数据超过了以往任何时候。我们口袋中的设备就能产生巨量数据,比如照片、GPS 坐标、音频以及我们有意无意泄漏的各种个人信息。
机器之心
2019/10/24
1.6K0
仅售99美元:英伟达GTC上发布「最小 AI 计算机」,学生福利已来
这已是英伟达举办的第十届 GTC,只可惜今天还是没有人们期待已久的「安培」架构 7 纳米制程显卡。
机器之心
2019/03/21
9370
仅售99美元:英伟达GTC上发布「最小 AI 计算机」,学生福利已来
AI的大模型时代 ≠ 只有大模型的AI时代
答案或许可以归总为一个“三部曲”般的规律——兴起、发展和大规模应用,外加这个过程再一次演进式的迭代。
量子位
2023/09/27
2870
AI的大模型时代 ≠ 只有大模型的AI时代
AI 大模型竞争白热化,算力优化才是“超车点”?
算力是驱动人工智能产业发展的核心动力。在数据、算法和算力三大人工智能要素中,算力是将数据和算法真正通过硬件执行的基础单元,并将数据、算法转化为最终的生产力。
深度学习与Python
2023/08/09
6110
AI 大模型竞争白热化,算力优化才是“超车点”?
是时候改变 AI 圈对 CPU 的刻板印象了
小模型的福音。 1 算力在制造业的落地 第一个案例就是算力发展在制造业的体现。 不论是手机还是电脑,各类电子设备都有一个非常重要的人机交互元件:屏幕。屏幕相关的产品线涵盖了TF T-LCD、AMOLED等一系列先进显示和传感器件,这些产品无一不对质量有着严苛的要求。随着产业规模的不断扩大,基于人工的缺陷检测和不良根因分析,在效率上已经难以满足进一步提升产能和品控的要求。现在基于深度学习来协助实现缺陷定位和缺陷检测等功能的工业视觉平台,能够借助大数据平台和AI算法,智能分析和快速定位不良根因。 英特尔® 至
AI科技评论
2022/10/08
7750
是时候改变 AI 圈对 CPU 的刻板印象了
机器学习边缘产品评测:问推理性能哪家强?
https://tryolabs.com/blog/machine-learning-on-edge-devices-benchmark-report/
GPUS Lady
2020/07/20
1.1K0
推荐阅读
相关推荐
NVIDIA关于AI部署的最新技术(附资料)
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档