前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >这个夏天,跟陈天奇学「机器学习编译」中英文课程,6月17日开课!

这个夏天,跟陈天奇学「机器学习编译」中英文课程,6月17日开课!

作者头像
机器之心
发布于 2022-06-07 03:46:46
发布于 2022-06-07 03:46:46
7560
举报
文章被收录于专栏:机器之心机器之心

机器之心报道

机器之心编辑部

陈天奇:「因为世界上还没有关于这个方向的系统性课程,所以这一次尝试应该会是和小伙伴们共同的探索」。

随着机器学习框架和硬件需求的发展,机器学习 / 深度学习编译正成为一个越来越受关注的话题。

去年 12 月的一篇文章中,TVM、MXNET、XGBoost 作者,CMU 助理教授,OctoML CTO 陈天奇探讨了「新一代深度学习编译技术的变革和展望」。他指出,现在深度学习编译生态正围绕四类抽象展开:计算图表示、张量程序表示、算子库和运行环境、硬件专用指令。

不过,由于篇幅受限,陈天奇并未就这一话题展开系统、详细的讨论,这让很多对机器学习 / 深度学习编译感兴趣的小伙伴感到意犹未尽。陈天奇本人也表示,「目前互联网上也有一些关于机器学习编译的介绍,不过大部分都还是介绍其中的各个模块,或者是针对一个系统的深入内部讲解。」因此,陈天奇萌生了开一门系统性课程的想法。

6 月 2 日,陈天奇通过知乎宣布,由他主讲的机器学习编译入门课程将于近期正式开课。

原贴链接:https://zhuanlan.zhihu.com/p/523372873

陈天奇介绍说,目前课程已经确定了几点大的方向,「首先,机器学习编译本身虽然有『编译』二字,其涉及到的技术其实超过了传统编译的范畴,包含了如机器学习搜索自动化,算子库整合,和机器学习生态交互等各个方面。而在相关抽象设计上面也有许多机器学习需求本身的考量。」因此,「这次课程会集中介绍计算图、张量程序、算子库和硬件指令四个层面的抽象。而更加重要的一点考量是整合。一般对于机器学习编译的介绍都会集中在一个点上,而各大抽象的整合本身反而恰好是真正需要大家关注的地方。」

目前,课程的中英文大纲都已经在官网上线,课程视频也是中英文均有。

  • 英文课程主页 https://mlc.ai/summer22/ 
  • 中文课程主页 https://mlc.ai/summer22-zh/ 

以下是关于该课程的详细信息(来自课程官网):

课程简介

随着人工智能应用在我们的日常生活中变得越来越普遍,目前存在的挑战是如何在不同的生产环境中部署最新的人工智能模型。模型和部署环境的组合爆炸给训练和推理部署带来了巨大的挑战。此外,目前落地的模型也提出了更多的要求,例如减少软件依赖、全面的模型覆盖、利用新硬件进行加速、减少内存占用,以及更强的可扩展性。

这些模型训练和推理问题,涉及机器学习编程范式、基于学习的搜索算法、编译优化以及计算运行时。这些话题的组合生成了一个全新主题——机器学习编译,并且该方向正在不断持续发展。这门课程将按照其中的关键元素,系统地研究这一新兴领域的关键要素。参与者将学习一些核心的概念,用以表示机器学习程序、自动优化技术,以及在端到端机器学习部署中优化环境依赖、内存和性能的方法。

课程受众和知识储备要求

关于这门课程的受众和要求,陈天奇表示,「这次课程本身并不需要编译和机器学习系统的背景知识。只需要对于深度学习框架有一些使用经验即可」。具体信息如下:

课程安排

从目前公布的课程安排来看,这门课程总共有 11 次课,从 6 月 17 日一直持续到 8 月 23 日,可以陪伴大家度过一个充实的夏天。

此外,这门课程还设置了专门的中英文论坛。

  • 中文论坛:https://github.com/mlc-ai/mlc-zh/discussions
  • 英文论坛:https://github.com/mlc-ai/mlc-en/discussions

小板凳搬好了吗?

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:content@jiqizhixin.com

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-06-04,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器之心 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
陈天奇等人新作引爆AI界:手机原生跑大模型,算力不是问题了
机器之心报道 机器之心编辑部 从此,大模型可以在任何设备上编译运行。 「我把大语言模型下到我的 iPhone 上,它神奇地跑起来了!」 五一假期还没过半,大模型领域的技术就已经发展到了这种程度。 对于陈天奇等人开源的新技术,大家一致的评论是「Amazing」。 最近人们都在研究 ChatGPT,大语言模型(LLM)彻底改变了科技领域的格局,但对于 AI 开发者来说,并不是人人都有上万块 A100 的。为了跑得起大模型,就要寻找各种优化方法。 在让大模型变小这条路上,人们做了很多尝试,先是 Meta 开源了
机器之心
2023/05/09
4150
陈天奇等人新作引爆AI界:手机原生跑大模型,算力不是问题了
A卡跑大模型,性能达到4090的80%,价格只有一半:陈天奇TVM团队出品
自预训练大模型兴起以来,人们面临的算力挑战就变得越来越大。为此,人们为大语言模型(LLM)提出了许多训练和推理的解决方案。显然,大多数高性能推理解决方案都基于 CUDA 并针对英伟达 GPU 进行了优化。
机器之心
2023/09/08
1.4K0
A卡跑大模型,性能达到4090的80%,价格只有一半:陈天奇TVM团队出品
浏览器就能跑大模型了!陈天奇团队发布WebLLM,无需服务器支持
金磊 发自 凹非寺 量子位 | 公众号 QbitAI 现在,只需一个浏览器,就能跑通“大力出奇迹”的大语言模型(LLM)了! 不仅如此,基于LLM的类ChatGPT也能引进来,而且还是不需要服务器支持、WebGPU加速的那种。 例如这样: 这就是由陈天奇团队最新发布的项目——Web LLM。 短短数日,已经在GitHub上揽货3.2K颗星。 一切尽在浏览器,怎么搞? 首先,你需要下载Chrome Canary,也就是谷歌浏览器的金丝雀版本: 因为这个开发者版本的Chrome是支持WebGPU的,否则就
量子位
2023/05/06
3950
浏览器就能跑大模型了!陈天奇团队发布WebLLM,无需服务器支持
TVM 中文站正式上线!最全机器学习模型部署「参考书」它来了
内容一览:近日,由 MLC 社区志愿者共同翻译校对的 TVM 中文文档正式发布,现已托管至超神经官网 Hyper.AI。
HyperAI超神经
2022/11/29
8980
TVM 中文站正式上线!最全机器学习模型部署「参考书」它来了
陈天奇CMU新课程线上免费听,剖析DL框架底层原理,学完你也能开发mini版PyTorch/TF
丰色 发自 凹非寺 量子位 | 公众号 QbitAI CMU又一门线下课程要在网上同步开课了。 这次,授课老师正好是机器学习领域的著名学者陈天奇。 以及CMU的副教授Zico Kolter(兼博世研究院首席人工智能科学家)。 课程名叫《深度学习系统(算法和实现)》。 这里的“深度学习系统”指的就是像PyTorch或TensorFlow这样的工具。 我们知道,深度学习能够迅速推广开来并取得成效少不了这些系统的支持。 但大部分人对于它们的态度都是“会用就完了”,对内部结构和底层运作原理并不清楚。 Kolt
量子位
2022/08/29
4110
陈天奇CMU新课程线上免费听,剖析DL框架底层原理,学完你也能开发mini版PyTorch/TF
陈天奇:机器学习科研的十年
十年前,MSRA的夏天,刚开始尝试机器学习研究的我面对科研巨大的不确定性,感到最多的是困惑和迷茫。十年之后,即将跨出下一步的时候,未来依然是如此不确定,但是期待又更多了一些。这其中的变化也带着这十年经历的影子。
量子位
2019/07/22
8910
陈天奇:机器学习科研的十年
陈天奇团队新研究:自动优化深度学习工作负载
---- 新智元编译 来源:arxiv.org 翻译:肖琴 【新智元导读】华盛顿大学计算机系博士生陈天奇、以及上海交通大学和复旦大学的研究团队提出一个基于学习的框架,以优化用于深度学习工作负载的张量程序。该研究使用基于机器学习的方法来自动优化张量运算核心并编译AI工作负载,从而可以将最优的性能部署到所有硬件。实验结果表明,该框架能够为低功耗CPU,移动GPU和服务器级GPU提供与最先进手工调优库相媲美的性能。 论文地址:https://arxiv.org/pdf/1805.08166.pdf 深度学
新智元
2018/05/29
6710
陈天奇做的XGBoost为什么能横扫机器学习竞赛平台?
在涉及非结构化数据(图像、文本等)的预测问题中,人工神经网络显著优于所有其他算法或框架。但当涉及到中小型结构/表格数据时,基于决策树的算法现在被认为是最佳方法。而基于决策树算法中最惊艳的,非XGBoost莫属了。
新智元
2019/05/13
3.1K0
陈天奇:深度学习编译技术的现状和未来
深度学习编译器的部署目标传统的深度学习框架也可以做,一个非常自然的问题是为什么不直接沿用传统的框架。这是一个编译器研究者来往往会忽略的问题。深度学习编译器只有在各种场景超过人工优化的传统办法,才有机会真正被采用,到达这一目标之前之前深度学习编译只是玩具。
机器之心
2019/05/17
1.8K0
谷歌上线自带中文的机器学习免费课程,我们带你做了个测评
大数据文摘编辑组 谷歌刚刚为全球的机器学习者们带来了一份大礼。 作为向人工智能教育领域迈出的第一步,谷歌的人工智能学习网站Learn with Google AI在今天上线,并重磅推出了一门机器学习速成课(Machine Learning Crash Course ,MLCC),提供交互式教学视频和练习,免费教授机器学习概念。 课程网站: https://developers.google.cn/machine-learning/crash-course/ 在本次发布中,谷歌提供了英文,西班牙文,法文,韩文
大数据文摘
2018/05/23
7430
陈天奇创业公司首个SaaS产品:快速构建部署ML应用,跨平台优化、基准和封装一条龙
今日,OctoML 公司正式在 Medium 上发表了一篇博文,介绍了他们正在进行的 Octomizer 项目——这是一个推动 ML 研究和实际应用部署的软件平台,力求让 ML 的应用简洁、快速、方便。
机器之心
2020/03/27
6940
入门机器学习,照这个课程清单按顺序学就对了
Chip Huyen 是一位来自越南的作家和计算机科学家,现居于美国硅谷,就职于英伟达人工智能应用团队。
机器之心
2019/08/09
5750
入门机器学习,照这个课程清单按顺序学就对了
专栏 | 陈天奇等人提出AutoTVM:让AI来编译优化AI系统底层算子
选自:TVM社区 作者:陈天奇 Alexnet 横空出世的两年之前,我选择了深度学习作为本科毕设方向。当时的深度学习并没有现在那么火热,也没有现有的 GPU 卷积实现,我在实验室的 GTX 470 上面第一次手写 GPU 卷积用以支持卷积 RBM,当时针对 CPU 十多倍的加速比让我兴奋不已。虽然最终那段研究经历并没有结果,但是计算本身对于机器学习的推动作用却深深地印在了我的脑海里。 深度学习系统支是推动进步的引擎,而在引擎的核心,则是像 cuDNN 这样的针对硬件的高效算子实现。每一个高效的算子库的背
机器之心
2018/06/12
1.6K0
陈天奇的tvm更新了:VTA,开源AI芯片栈
陈天奇 发表于 tvm社区 量子位 搬运 | 公众号 QbitAI 华盛顿大学陈天奇博士近日在tvm社区介绍了VTA(Versatile Tensor Accelerator)项目,量子位全文搬运如下。 问题:不只是硬件设计 2016年的秋天,我收到我们系硬件的教授Luis的邮件邀请畅谈合作计划,当时正在酝酿TVM计划的我这样认识了同系的法国同学Thierry,开始了我们将近两年的合作。AI芯片和硬件加速是深度学习发展写下一个大的方向,而如何设计专用加速芯片无疑是大家都感兴趣的话题,Thierry也不例外
量子位
2018/07/19
1.7K0
专访陈天奇:DMLC发起人与机器学习的故事
受访者:陈天奇 采访者:何通 编辑:王小宁 简介:陈天奇,华盛顿大学计算机系博士生,研究方向为大规模机器学习。他曾获得KDD CUP 2012 Track 1第一名,并开发了SVDFeature,XGBoost,cxxnet等著名机器学习工具,是Distributed (Deep) Machine Learning Common的发起人之一。 何:你的本科在上海交大的ACM班就读,是怎么开始做机器学习研究的呢? 陈:我们当时的培养计划里面有一项,就是希望我们尽早地接触学术研究。于是我们在大二
用户1737318
2018/06/05
4.7K0
学界 | 五年过去,Hinton的《神经网络和机器学习》还是最好的机器学习课程吗?
AI科技评论按:Hinton的深度学习课程早在2012年上线,对于这门课程,有学者认为它太过艰深,不适合初学者上手;也有的学生觉得它受益良多,是值得一学的好课程。那么五年过去,这门名为《神经网络和机器学习》的课程是否依然是“最值得学习的深度课程”?关于这个问题,目前就职于 Voci Technologies的首席语音架构师、毕业于香港科技大学的 Arthur Chan 日前在他的博客上发表了看法。 此外,为了让广大 AI 青年们快速进入学习状态,AI科技评论经Hinton教授的亲自授权,推出了深度学习大牛
AI科技评论
2018/03/12
1K0
陈天奇的Octo ML公司招新啦!想加入「XGBoost先驱」的团队吗?
大家还记得那个开发了 SVDFeature,XGBoost,cxxnet等著名机器学习工具、Distributed (Deep) Machine Learning Common 的发起人之一——陈天奇大佬吗?。
新智元
2021/03/24
7660
陈天奇的Octo ML公司招新啦!想加入「XGBoost先驱」的团队吗?
【自动编译代码】陈天奇团队TVM重磅更新:直接在浏览器使用GPU
【新智元导读】华盛顿大学陈天奇团队的深度学习自动优化代码生成器TVM发布更新,不需要写一行Javascprit代码,直接就能将深度学习模型编译到WebGL,然后在浏览器运行。 今天,华盛顿大学陈天奇团队开发的TVM发布了更新,不需要写任何JavaScript代码,直接就能把深度学习模型编译到WebGL/OpenGL,然后在浏览器运行。 深度学习离不开TensorFlow,MXNet,Caffe和PyTorch这些可扩展深度学习系统,但它们大多专门针对小范围的硬件平台(例如服务器级GPU)进行优化,要适应其他
新智元
2018/03/21
1.9K0
【自动编译代码】陈天奇团队TVM重磅更新:直接在浏览器使用GPU
上线十年,吴恩达机器学习课程全面升级,Python教学+更多应用,本月开课
大数据文摘作品 作者:Mickey 今年,吴恩达的深度学习课程就上线整整十周年了。 十年来,这门课程成为了无数AI人的入门课程,全球有超过60万人注册过这门课,这也让吴恩达成为了“全民AI老师”。 这门深度系列的课程面向希望入行深度学习的从业者,要求学生有一定的数学基础以及统计学知识储备,虽然课程有趣简单好上手,但随着时间推进,这门课程并不能满足所有人的需求。 特别是在课程语言的设计上,由于课程设计编写时日已久,大部分的内容使用的仍然是Matlab/Octave语言。十年来,编程世界日新月异,更新更简单
大数据文摘
2022/06/09
8750
上线十年,吴恩达机器学习课程全面升级,Python教学+更多应用,本月开课
入门机器学习,照这个课程清单按顺序学就对了(附资源链接)
入门机器学习是一个循序渐进的过程,优质的学习资源和科学的学习路线缺一不可。在本文中,来自英伟达人工智能应用团队的计算机科学家 Chip Huyen 不仅列出了十大优质的免费机器学习课程资源,还将其串成了一条高效的学习路线。
CDA数据分析师
2019/08/12
9770
入门机器学习,照这个课程清单按顺序学就对了(附资源链接)
推荐阅读
陈天奇等人新作引爆AI界:手机原生跑大模型,算力不是问题了
4150
A卡跑大模型,性能达到4090的80%,价格只有一半:陈天奇TVM团队出品
1.4K0
浏览器就能跑大模型了!陈天奇团队发布WebLLM,无需服务器支持
3950
TVM 中文站正式上线!最全机器学习模型部署「参考书」它来了
8980
陈天奇CMU新课程线上免费听,剖析DL框架底层原理,学完你也能开发mini版PyTorch/TF
4110
陈天奇:机器学习科研的十年
8910
陈天奇团队新研究:自动优化深度学习工作负载
6710
陈天奇做的XGBoost为什么能横扫机器学习竞赛平台?
3.1K0
陈天奇:深度学习编译技术的现状和未来
1.8K0
谷歌上线自带中文的机器学习免费课程,我们带你做了个测评
7430
陈天奇创业公司首个SaaS产品:快速构建部署ML应用,跨平台优化、基准和封装一条龙
6940
入门机器学习,照这个课程清单按顺序学就对了
5750
专栏 | 陈天奇等人提出AutoTVM:让AI来编译优化AI系统底层算子
1.6K0
陈天奇的tvm更新了:VTA,开源AI芯片栈
1.7K0
专访陈天奇:DMLC发起人与机器学习的故事
4.7K0
学界 | 五年过去,Hinton的《神经网络和机器学习》还是最好的机器学习课程吗?
1K0
陈天奇的Octo ML公司招新啦!想加入「XGBoost先驱」的团队吗?
7660
【自动编译代码】陈天奇团队TVM重磅更新:直接在浏览器使用GPU
1.9K0
上线十年,吴恩达机器学习课程全面升级,Python教学+更多应用,本月开课
8750
入门机器学习,照这个课程清单按顺序学就对了(附资源链接)
9770
相关推荐
陈天奇等人新作引爆AI界:手机原生跑大模型,算力不是问题了
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档