无论 ResNet、BERT、GPT、VGG、PGAN,还是 MobileNet,只需一行代码轻松复现!
迁移学习是一种使用为任务开发的模型做第二个任务模型起点的机器学习方法。使用预训练模型作计算机视觉和自然语言处理任务的起点是深度学习中一种流行的方法。因为在这些问题上开发神经网络模型需要的大量计算资源和
翻译 | 刘畅 迁移学习是机器学习方法之一,它可以把为一个任务开发的模型重新用在另一个不同的任务中,并作为另一个任务模型的起点。 这在深度学习中是一种常见的方法。由于在计算机视觉和自然语言处理上,开发神经网络模型需要大量的计算和时间资源,技术跨度也比较大。所以,预训练的模型通常会被重新用作计算机视觉和自然语言处理任务的起点。 这篇文章会发现告诉你,如何使用迁移学习来加速训练过程和提高深度学习模型的性能,以及解答以下三个问题: 什么是迁移学习,以及如何使用它 深度学习中迁移学习的常见例子 在自己的预测模型
这个新集合由俄罗斯的程序员小哥Pavel Yakubovskiy一手打造,包含四种模型架构和30种预训练骨干模型(backbone),官方文档列举了四条主要特点:
【导读】你能利用现有的 Spark 集群构建深度学习模型吗?如何分析存储在 HDFS、Hive 和 HBase 中 tb 级的数据吗?企业想用深度学习模型,可是要考虑的问题又很多,怎么破?这篇文章中,我们将给大家讲讲大数据+深度学习下,BigDL 框架的利弊与应用教程,为什么有了 TF、PyTorch,还是会考虑用 BigDL?
这个工具的主要功能是一个统一的量化工具。通常,此方法支持任意Bit(>=2)来表示权重和激活值。在量化过程中,会根据预先定义的硬件目标将FakeQuantize操作自动插入到模型图中,以生成硬件友好的优化模型。然后,不同的量化算法可以调整FakeQuantize参数或删除一些操作以满足精度标准。最后这个伪量化模型可以在运行时被解释并将其转换为真正的低精度模型,从而获得真正的性能改善。
深度学习是全球视频分析应用增长的动力,开发者们越来越多的在基于计算机视觉应用中使用深度学习了。在Github或者其他地方已经开始浮现公开的代码库和(网络)模型库(Model Zoos)。开发者当在应用中使用深度学习的时候,经常面临两个选择:他们可以使用第三方已经训练好的模型,或者他们可以自己从头训练一个新模型。 现在选用模型库中的预先训练好的模型,变得流行起来,但经常这些模型存在一些问题:
PyTorch框架中有一个非常重要且好用的包:torchvision,该包主要由3个子包组成,分别是:torchvision.datasets、torchvision.models、torchvision.transforms。这3个子包的具体介绍可以参考官网:http://pytorch.org/docs/master/torchvision/index.html。具体代码可以参考github:https://github.com/pytorch/vision/tree/master/torchvision。
欢迎来到Core ML教程系列的第二部分。在本教程中,将学习如何设置Python虚拟环境,获取不在Core ML格式裡的数据模型,并将该模型转换为Core ML格式,最后将其集成到应用程式中。强烈建议
PyTorch框架中torchvision模块下有:torchvision.datasets、torchvision.models、torchvision.transforms这3个子包。 关于详情请参考官网: http://pytorch.org/docs/master/torchvision/index.html。 具体代码可以参考github: https://github.com/pytorch/vision/tree/master/torchvision。
目标检测是深度学习的流行应用之一。让我们首先考虑一个现实生活中的例子。大多数人会在手机中使用 Google 相册,它会根据“事物”选项下的照片自动将照片分组。我在下面附上一个片段。
框架的选择 如上一节课所说,随着机器学习的发展,目前已经出现很多不错的学习框架,这里我们做个对比: TensorFlow:深度学习最流行的库之一,它不仅便携、高效、可扩 展,还能在不同计算机上运行。小到智能手机,大到计算机集群。它是一款轻量级的软件,可以立刻生成你的训练模型,也能重新实现它;TensorFlow 拥抱创新,有强大的社区、企业支持, 因此它广泛用于从个人到企业、从初创公司到大公司等不同群体。 Caffe: 卷积神经网络框架,专注于卷积神经网络和图像处理,是用 C ++语言写成的。 Theano
选自 Nvidia Blog 作者:Aaron Markham、贾扬清 机器之心编译 昨天,Facebook 推出了 Caffe2,一个兼具表现力、速度和模块性的开源深度学习框架。它沿袭了大量的 Caffe 设计,可解决多年来在 Caffe 的使用和部署之中发现的瓶颈问题。最终,Caffe2 打开了算法实验和新产品的大门。通过在内部用于各种深度学习和增强现实任务,Caffe2 已经在 Facebook 对于规模和性能的需求上得到了锻造。同时,它为移动端应用提供了令人印象深刻的新功能,例如高级相机和即时通讯功
在前一篇文章中,我们讨论了用于人体检测的早期方法,例如Vila Jones的目标检测框架(Haar级联)和方向梯度直方图(HOG)检测器。我们也看到了这些早期方法存在的问题,例如漏检、误检等。在本文中,我们将了解最新的深度学习技术是如何解决上述这些问题的,并使用代码来实现它。
我将借鉴自己的经验,列出微调背后的基本原理,所涉及的技术,及最后也是最重要的,在本文第二部分中将分步详尽阐述如何在 Keras 中对卷积神经网络模型进行微调。
在过去的一年多中,ONNX 这种「通用」的神经网络交换格式已经有了很长远的发展,用不同框架编写的模型可以在不同的平台中流通。在这次研讨会中,我们确切地感受到了这一点,因为开源社区围绕着 ONNX 介绍了很多优化工具和资源库。
计算机视觉正在彻底改变医学成像。算法正在帮助医生识别可能错过的十分之一的癌症患者。甚至有早期迹象表明胸部扫描可有助于COVID-19的识别,这可能有助于确定哪些患者需要进行实验室检查。
最近我们创办了通过视频来详解前研技术,有兴趣的同学可以通过观看视屏了解最新检测框架,如目前发布的视频链接:
项目地址:https://github.com/opencv/open_model_zoo
今天我们来看看OpenCV的深度神经网络模块。如果你想要释放神经网络的awesomeness来识别和分类图像中的物体,但完全不知道深度学习如何工作,也不知道如何建立和训练神经网络了,那么我有好消息告诉
AiTechYun 编辑:Yining 今天我们来看看OpenCV的深度神经网络模块。如果你想要释放神经网络的awesomeness来识别和分类图像中的物体,但完全不知道深度学习如何工作,也不知道如何
之前介绍的项目《优秀的 Verilog/FPGA开源项目介绍(十四)- 使用FPGA实现LeNet-5 深度神经网络模型》最后我们分析了,纯FPGA实现神经网络的缺点,以及现在FPGA厂家的加速方案,这里引用一下:
github项目地址:https://github.com/MaybeShewill-CV/lanenet-lane-detection
▌简介 ---- 迁移学习是一种机器学习方法,其中为一个任务开发的模型可以在另一个任务中重用。 迁移学习是深度学习中的一种流行方法,其中预训练(pre-trained)的模型是计算机视觉和自然语言处理任务的起点。在这些任务上开发神经网络模型需要大量计算时间,用到的技术也差别很大。 在这篇文章中,你将学会如何使用迁移学习来加速训练或者用来提高深度学习模型的性能。 本文介绍以下几点: 什么是迁移学习,如何使用它? 迁移学习在深度学习中的范例 什么时候在你需要在自己的预测建模问题上使用转移学习 ▌什么是迁移学习
英特尔联合腾讯云大学升级课程共建项目,发布2.0版。此次升级面向AI、大数据等核心领域提供了更丰富的资源,同时更加注重强化实践内容,以从通用技术培训到云上实战,更有效赋能开发者,并基于腾讯云TI-ONE平台,以及英特尔提供的更多工具镜像,让学员将通过理论与知识学习所得的技能,直接实现落地应用,进而更全面地支持云生态人才培养,帮助广大开发人员创造无限未来。
关注腾讯云大学,了解行业最新技术动态 前 言 英特尔联合腾讯云大学升级课程共建项目,发布2.0版。此次升级面向AI、大数据等核心领域提供了更丰富的资源,同时更加注重强化实践内容,以从通用技术培训到云上实战,更有效赋能开发者,并基于腾讯云TI-ONE平台,以及英特尔提供的更多工具镜像,让学员将通过理论与知识学习所得的技能,直接实现落地应用,进而更全面地支持云生态人才培养,帮助广大开发人员创造无限未来。 戳“阅读原文”预览完整的英特尔专区板块 腾讯云大学是腾讯云面向云生态用户打造的一站式学习成长平台,
看起来使用这些预训练的模型已经成为行业最佳实践的新标准。毕竟,有一个经过大量数据和计算训练的模型,你为什么不利用呢?
GPU已被证明是加速深度学习和AI工作负载(如计算机视觉和自然语言处理(NLP))的有效解决方案。如今许多基于深度学习的应用程序在其生产环境中使用GPU设备,例如用于数据中心的NVIDIA Tesla和用于嵌入式平台的Jetson。这提出了一个问题:如何从NVIDIA GPU设备获得最佳推理性能?
高盛,抑或是摩根大通,这些传统意义上的金融投行,正在投入大量人力和资本,向AI技术公司转型,而他们也已经从自己的AI 战略中尝到了甜头。事实上,它们只是整个金融行业发展趋势的代表。
谷歌近期更新了Tensorflow Object-Detection API里面的detection_model_zoo,模型都是非常前沿的,其性能都处于该领域的领先水平,如下图所示:
选自MachineLearningMastery 作者:Jason Brownlee 机器之心编译 参与:Nurhachu Null、刘晓坤 本文介绍了迁移学习的基本概念,以及该方法在深度学习中的应用,引导构建预测模型的时候使用迁移学习的基本策略。 迁移学习是一种机器学习方法,就是把为任务 A 开发的模型作为初始点,重新使用在为任务 B 开发模型的过程中。 深度学习中在计算机视觉任务和自然语言处理任务中将预训练的模型作为新模型的起点是一种常用的方法,通常这些预训练的模型在开发神经网络的时候已经消耗了巨大的时
机器之心报道 编辑:王强 神经网络开发到 100% 会发生什么?神经网络的究极形态又是什么?何为网络超体?上述问题的答案可能可以在电影超体(Lucy)中找到。 在电影中,随着女主角 Lucy 脑力的逐渐开发,她获得了以下能力: 10%:能够控制身体的自主神经系统,提高身体协调能力和反应速度。 30%:能够预测未来并预测人们的行动,提高洞察力和判断力。 50%:能够通过感知周围环境的微小变化来预测未来的变化。 70%:能够控制身体和物体的运动,拥有超凡的运动和战斗技能。 90%:能够与宇宙和时间相连,拥有灵感
AnalyticsZoo是由Intel开源,基于Apache Spark、TensorFlow、Keras和BigDL的大数据分析+AI平台,能够帮助用户利用Spark的各种流水线、内置模型、特征操作等,构建基于大数据的深度学习端到端应用。
大多数的大型科技公司(如IBM,谷歌,微软,亚马逊)都有易于使用的视觉识别API。一些规模较小的公司也提供类似的产品,如Clarifai。但没有公司能够提供对象检测。 千年隼号宇宙飞船的检测 以下图
来源:medium 作者:Alex Honchar 翻译:刘小芹 【新智元导读】本文从开发者的角度,总结了GAN、AutoML、语音识别、NLP等已经可以用于实际产品的技术,以及值得关注的新趋势。作者认为,有ONNX这类的统一格式,Caffe Zoo等模型库,以及AutoML等自动化工具,制作基于AI的应用已经变得非常容易。 GAN与造假 虽然生成对抗网络几年前就出现了,我对它是相当怀疑的。几年过去了,即使看到GAN在生成64x64分辨率的图像方面取得了巨大的进步,我对它仍是怀疑的。在阅读了一些数学文章
【磐创AI 导读】:本篇文章讲解了PyTorch专栏的第四章中的使用ONNX将模型转移至Caffe2和移动端。查看专栏历史文章,请点击下方蓝色字体进入相应链接阅读。查看关于本专栏的介绍:PyTorch专栏开篇。想要更多电子杂志的机器学习,深度学习资源,大家欢迎点击上方蓝字关注我们的公众号:磐创AI。
近年来,基于深度学习的人脸识别技术取得了重要进展。但是人脸识别模型的实际部署和深入研究都需要相应的公众支持。例如生产级人脸表示网络需要模块化的训练机制,以配合不同 SOTA 骨干网络、训练监督主题再到现实世界人脸识别需求。至于性能分析和比较,基于多个基准的大量模型也需要一个标准和自动化的评估工具。此外,人们希望能够出现一种以整体流水线形式部署的人脸识别公共基础。
允中 发自 凹非寺 量子位 报道 | 公众号 QbitAI 这可能是小米目前为止最重要的AI大动作。 昨天(6月28日),在2018开源中国开源世界高峰论坛现场,小米人工智能与云平台副总裁崔宝秋对外宣布,将正式开源小米自研的移动端深度学习框架Mobile AI Compute Engine,简称MACE。 小米方面称,MACE是专门为移动设备优化的深度学习模型预测框架。 近年来,随着移动互联网的深入发展和IoT智能设备的普及,以及用户对智能性,低延迟和隐私保护的诉求变得越来越高,移动设备上的离线深度学习应
视频与动作理解俨然已成为当今最火热的研究方向之一,然而在开源社区中找到一个简洁、高效、易于修改的视频理解代码库仍不是一件简单的事情。更重要的是,复现当今前沿的 (state-of-the-art) 的深度学习模型一直是一件令研究者头疼的事情。
在构建自然语言理解深度学习模型过程中,研究人员或者工程师们经常需要在编程细节和代码调试上花费大量精力,而不是专注于模型架构设计与参数调整。
现在深度学习非常热门,而深度学习的库也如雨后春笋般涌现出来。
Open3D-ML是Open3D的一个扩展,用于3D机器学习任务。它建立在Open3D核心库之上,并通过机器学习工具对其进行扩展,以进行3D数据处理。此repo集中于语义点云分割等应用程序,并提供可应用于常见任务的预训练模型以及用于训练的流程。
一直以来,大家最常用的目标检测库是港中文的mmdetection和Facebook的detectron2库,不过这两个库都是基于PyTorch的,PyTorch的模型部署方面还是稍差于TensorFlow,如果想用TensorFlow的目标检测模型,最好的还是选择还是谷歌官方的TF Object Detection库:
Kailash Ahirwar,Mate Lab 联合创始人,Github的一位资深作者,也是一位活雷锋,近日在其Github个人主页上发表了一个机器学习/深度学习的代码速查表,包括: Keras Numpy Scipy Pandas Scikit-learn Matplotlib 五大工具库常用代码,以及 Neural Networks Zoo——27种神经网络图概览。 可以说极大方便了学习者的代码查找。 附上网址:https://github.com/kailashahirwar/cheatsheet
时间序列简单来讲是指一系列在时间轴上有序的数据,而时序预测是根据过去时间点的数值来预测将来时间点上的数值。现实中,时间序列预测除了在电信运营商中的网络质量分析、面向数据中心运营的日志分析、面向高价值设备的预测性维护等多有应用之外,还可用作异常检测的第一步,以帮助在实际值偏离预测值过多时触发警报。
NeuronBlocks是一个NLP深度学习建模工具包,可帮助工程师构建用于NLP任务的神经网络模型训练的端到端管道。该工具包的主要目标是将NLP深度神经网络模型构建的开发成本降到最低,包括训练阶段和推理阶段。有关详细信息,请查看我们的论文:NeuronBlocks -- Building Your NLP DNN Models Like Playing Lego
领取专属 10元无门槛券
手把手带您无忧上云