首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Core ML and Vision Framework on iOS 11

Core ML and Vision Framework on iOS 11

作者头像
MelonTeam
发布于 2018-01-04 07:35:51
发布于 2018-01-04 07:35:51
1.6K00
代码可运行
举报
文章被收录于专栏:MelonTeam专栏MelonTeam专栏
运行总次数:0
代码可运行

导语 :机器学习计算机视觉iOS 上虽然早已有了系统级的支持,但 WWDC 17 发布的 iOS 11 将它们的使用门槛大大降低。苹果提供了设计合理且容易上手的 API,让那些对基础理论知识一窍不通的门外汉也能玩转高大上的前沿科技,这是苹果一贯的风格。

这是一篇 WWDC 2017 Session 506,608,703 和 710 的学习笔记,以及分享自己尝试写的 Demo Core-ML- Sample

Core ML

简介

Core ML 大大降低了开发者在苹果设备上使用机器学习技术预测模型的门槛和成本。苹果制定了自己的模型文件格式,统一的格式和全新的 API 设计使得 Core ML 支持苹果生态下多个平台。

将数据经过预处理后输入 MLMODEL 文件,输出为模型的预测结果。使用 Core ML 只需要很少的代码就可以构建起一个机器学习的应用。只需关注代码即可,无需关注模型的定义,网络的构成。这跟以前写 MPS 代码时构成了强烈的反差:开发者需要写大量 MPS 代码用于构建和描述一个完整的网络,而加载的文件仅仅是模型的权重而已。MLMODEL 文件包含了权重和模型结构等信息,并可以自动生成相关的代码,节省开发者大量时间。

Model 转换工具

苹果提供了一个 Python 工具,可以将业内一些常用的机器学习框架导出的 Model 转成 MLMODEL 文件。代码会编译成可执行二进制文件,而 MLMODEL 会编译成 Bundle 文件,在代码文件中可以直接调用 MLMODEL 生成的类,这些都是需要 Xcode 9 做支撑,也就是说,现阶段并不支持动态下发 MLMODEL 文件。Core ML 的预测过程全都在客户端进行,保证用户隐私不会泄露。

Core ML 支持 DNN,RNN,CNN,SVM,Tree ensembles,Generalized linear models,Pipeline models 等,对应的模型转换工具 Core ML Tools 也支持了一些常用机器学习框架模型的转换。虽然目前没有直接支持 Google 的 TensorFlow,但可以使用 Keras 曲线救国。coremltools 已经开源,并提供可拓展性的底层接口,可以编写适配其他机器学习框架模型的转换工具。

MLMODEL 文件中还包含了很多元数据,比如作者,License,输入输出的描述文字。这些元数据都可以通过 coremltools 的接口进行设置。coremltools 上手很简单,可以查看完整详细的使用文档

把 MLMODEL 文件拖拽到 Xcode 工程中后,记得要勾选对应的 target,这样 Xcode 才会自动生成对应的代码。生成的类名就是 MLMODEL 文件名,输入和输出的变量名和类型也可以在 Xcode 中查看:

底层计算性能

Core ML 的底层是 Accelerate BNNS 和 MPS,并可以根据实际情况进行无缝切换。比如在处理图片的场景下使用 MPS,处理文字场景下使用 Accelerate,甚至可以在同一个 model 的不同层使用不同的底层技术来预测。Vision 和 NLP 可以结合 Core ML 一起使用。Core ML 对硬件做了性能优化,而且支持的模型种类更多,开发者不用关注底层的一些细节,苹果全都封装好了。

当然,这些也都是建立在 MPS 更新的基础上,MPS 在 iOS 11 中拓展了支持向量和矩阵的数据结构 MPSVectorMPSMatrix,以及它们之间相乘的 API。而且提供了更多的神经网络类型(比如 RNN 等),在卷积神经网络中也提供了更多种类的卷积核,用于满足更多特殊场景。

苹果在 Metal 2 中补充 MPS 大量功能的同时,也提供了用于描述神经网络结构的语言:Neural Network Graph API。使用它可以极大简化代码逻辑,代码量缩减到以前的四分之一(以 Inception V3 为例)。并且使用 NN Graph API 可以并行使用 CPU 和 GPU。这种图语言跟主流的分布式机器学习框架的使用很像:先用简单的 Python 语言描述好网络结构,定义好输入输出格式,然后一次性提交到后端去执行。后端对底层性能做了很多细节优化,然而开发者完全不用关心这些。新增的 MPSNNGraph 提供了异步接口使得 CPU 不用再等待 GPU 的执行结果,性能也得到提升。

Metal 2 使用 MPS 进行图像处理的性能也得到了提升,在不同的设备上大约提升了百分之二十多。

Demo: 数据预处理

Core-ML-Sample 使用了 Core ML 和 Vision 技术实现对摄像头拍摄的图像实时预测物体种类。因为图像来源是摄像头,所以需要将 CMSampleBuffer 转成 CVPixelBuffer。因为 Xcode 9 已经生成好了代码,直接调用 Inceptionv3 类的 prediction 方法即可完成预测。生成的 Inceptionv3Output 类含有 classLabelclassLabelProbs 两个属性,可以获取预测的分类标签名以及每种标签的可能性。可以点击 Xcode Model View 中 Model Class 的生成源码箭头来查看这些类的信息。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
let inceptionv3model = Inceptionv3()

func handleImageBufferWithCoreML(imageBuffer: CMSampleBuffer) {
   guard let pixelBuffer = CMSampleBufferGetImageBuffer(imageBuffer) else {
       return
   }
   do {
       let prediction = try self.inceptionv3model.prediction(image: self.resize(pixelBuffer: pixelBuffer)!)
       DispatchQueue.main.async {
           if let prob = prediction.classLabelProbs[prediction.classLabel] {
               self.predictLabel.text = "\(prediction.classLabel) \(String(describing: prob))"
           }
       }
   }
   catch let error as NSError {
       fatalError("Unexpected error ocurred: \(error.localizedDescription).")
   }
}

在 Xcode Model View 中可以看到 Inceptionv3 模型的输入图片为 Image,所以需要对摄像头采集到的图像进行预处理。我的转换流程是:CVPixelBuffer->CVPixelBuffer->CIImage->CIImage(resized)->CVPixelBuffer。最后一步 CIImageCVPixelBuffer 是通过 CIContext 渲染完成。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
/// resize CVPixelBuffer
///
/// - Parameter pixelBuffer: CVPixelBuffer by camera output
/// - Returns: CVPixelBuffer with size (299, 299)
func resize(pixelBuffer: CVPixelBuffer) -> CVPixelBuffer? {
   let imageSide = 299
   var ciImage = CIImage(cvPixelBuffer: pixelBuffer, options: nil)
   let transform = CGAffineTransform(scaleX: CGFloat(imageSide) / CGFloat(CVPixelBufferGetWidth(pixelBuffer)), y: CGFloat(imageSide) / CGFloat(CVPixelBufferGetHeight(pixelBuffer)))
   ciImage = ciImage.applying(transform).cropping(to: CGRect(x: 0, y: 0, width: imageSide, height: imageSide))
   let ciContext = CIContext()
   var resizeBuffer: CVPixelBuffer?
   CVPixelBufferCreate(kCFAllocatorDefault, imageSide, imageSide, CVPixelBufferGetPixelFormatType(pixelBuffer), nil, &resizeBuffer)
   ciContext.render(ciImage, to: resizeBuffer!)
   return resizeBuffer
}

除了图片需要预处理外,其他数据可能也需要预处理。这需要看训练的模型的输入是什么形式,比如分析一段文本所表达的情绪是开心还是沮丧,可能需要写个预处理程序统计词频,然后输入到训练好的模型中进行预测。

总结

  • Model 极速集成
  • 支持多种数据类型
  • 硬件优化
  • 适配主流机器学习框架

Vision

应用场景

  1. 人脸检测:支持检测笑脸、侧脸、局部遮挡脸部、戴眼镜和帽子等场景,可以标记出人脸的矩形区域
  2. 人脸特征点:可以标记出人脸和眼睛、眉毛、鼻子、嘴、牙齿的轮廓,以及人脸的中轴线
  3. 图像配准
  4. 矩形检测
  5. 二维码/条形码检测
  6. 文字检测
  7. 目标跟踪:脸部,矩形和通用模板

Vision 使用姿势

将各种功能的 Request 提供给一个 RequestHandler,Handler 持有图片信息,并将处理结果分发给每个 Request 的 completion Block 中。可以从 results 属性中得到 Observation 数组,然后进行更新 UI 等操作。因为 completion Block 所执行的队列跟 perform request 的队列相同,所以更新 UI 时记得使用主队列。

Vision 操作流水线分为两类:分析图片和跟踪队列。可以使用图片检测出的物体或矩形结果(Observation)来作为跟踪队列请求(Request)的参数。

Vision 支持的图片数据类型:

  • CVPixelBufferRef
  • CGImageRef
  • CIImage
  • NSURL
  • NSData

这几乎涵盖了 iOS 中图片相关的 API,很实用很强大。

Vision 有三种 resize 图片的方式,无需使用者再次裁切缩放

  • VNImageCropAndScaleOptionCenterCrop
  • VNImageCropAndScaleOptionScaleFit
  • VNImageCropAndScaleOptionScaleFill

Vision 与 iOS 上其他几种带人脸检测功能框架的对比:

Demo: 与 Core ML 集成

Core ML 具有更好的性能,Vision 可为其提供图片处理的流程。Core ML 生成的代码中含有 MLModel 类型的 model 对象,可以用它初始化 VNCoreMLModel 对象,这样就将 Core ML 的 Model 集成进 Vision 框架中了:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
private var requests = [VNRequest]()

func setupVision() {
   guard let visionModel = try? VNCoreMLModel(for: inceptionv3model.model) else {
       fatalError("can't load Vision ML model")
   }
   let classificationRequest = VNCoreMLRequest(model: visionModel) { (request: VNRequest, error: Error?) in
       guard let observations = request.results else {
           print("no results:\(error!)")
           return
       }

       let classifications = observations[0...4]
           .flatMap({ $0 as? VNClassificationObservation })
           .filter({ $0.confidence > 0.2 })
           .map({ "\($0.identifier) \($0.confidence)" })
       DispatchQueue.main.async {
           self.predictLabel.text = classifications.joined(separator: "\n")
       }
   }
   classificationRequest.imageCropAndScaleOption = VNImageCropAndScaleOptionCenterCrop

   self.requests = [classificationRequest]
}

上面的代码实现了 Vision 的工作流,并在 completion Block 中对预测结果进行了处理:从 top5 中筛选可能性大于 0.2 的结果,并转成文本描述。因为所有结果的可能性总和为 1,所以最终的结果不会达到 5 个,实际测试中其实结果往往只有 1-2 个。

对摄像头传入的每帧图片进行预测。虽然 Vision 帮我们完成了预处理等流程上的工作,但是需要我们传入一些额外的信息。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
func handleImageBufferWithVision(imageBuffer: CMSampleBuffer) {
   guard let pixelBuffer = CMSampleBufferGetImageBuffer(imageBuffer) else {
       return
   }

   var requestOptions:[VNImageOption : Any] = [:]

   if let cameraIntrinsicData = CMGetAttachment(imageBuffer, kCMSampleBufferAttachmentKey_CameraIntrinsicMatrix, nil) {
       requestOptions = [.cameraIntrinsics:cameraIntrinsicData]
   }

   let imageRequestHandler = VNImageRequestHandler(cvPixelBuffer: pixelBuffer, orientation: self.exifOrientationFromDeviceOrientation, options: requestOptions)
   do {
       try imageRequestHandler.perform(self.requests)
   } catch {
       print(error)
   }
}

需要向图片传入 EXIF Orientation 信息:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
/// only support back camera
var exifOrientationFromDeviceOrientation: Int32 {
   let exifOrientation: DeviceOrientation
   enum DeviceOrientation: Int32 {
       case top0ColLeft = 1
       case top0ColRight = 2
       case bottom0ColRight = 3
       case bottom0ColLeft = 4
       case left0ColTop = 5
       case right0ColTop = 6
       case right0ColBottom = 7
       case left0ColBottom = 8
   }
   switch UIDevice.current.orientation {
   case .portraitUpsideDown:
       exifOrientation = .left0ColBottom
   case .landscapeLeft:
       exifOrientation = .top0ColLeft
   case .landscapeRight:
       exifOrientation = .bottom0ColRight
   default:
       exifOrientation = .right0ColTop
   }
   return exifOrientation.rawValue
}

总结

  • Vision 是一个关于计算机视觉的顶层新框架。
  • 一个界面,多重跟踪检测
  • 集成 Core ML 轻松使用自己的 model

感受

苹果为开发者带来了炫酷的功能,并且这些示例很有针对性,更实用。Vision 更像是一个工具库,对一些高频场景进行了封装,比如人脸、条形码、矩形和文字等,这些基于底层 API 封装的高级功能可以帮助开发者很快地完成老板的功能。而 Core ML 给出的 Model 也很有代表性,贴近实际应用场景,很容易激发开发者使用的热情。我想这正是苹果最擅长的,把复杂的事情简单化,提供极易上手的 Demo,并循序渐进,给予开发者更高深的玩法,不失拓展性和定制化。

coremltools 肯定还存在一些兼容性问题,并且会随着各大机器学习框架的更新而不断更新,我想这也是为何苹果将其开源的原因吧。使用 python 也更方便维护,而且主流的机器学习框架都是用 python 作为前端语言。

Core ML 功能强大,支持的模型种类很多。与此同时,MPS 在 iOS 11 也得到了升级,新增的数据类型更方便使用。总之其实还是新增了对底层数据和算法的封装,然后 Core ML 在此基础上又进行了一层高级的封装。可以看出苹果这一年在底层下的功夫确实不少,在这之后才有了更强大更全面的 API。我预测在这之后 Core ML 还会有更多的模型得到支持,Vision 也会加入更丰富的应用场景。

如果苹果能够发挥硬件上性能的优势,可能在以后还会演示出更炫酷的 Demo,比如视频实时防抖的处理,更牛逼的滤镜效果。对高性能计算和 GPU 图像处理感兴趣的话,推荐看下 Metal 2 相关的 Session,尤其是 Session 608。

同时也会发现苹果在机器学习的道路上避开了各个训练框架的锋芒,尤其是最近大红大紫的 Google TensorFlow。它选择另辟蹊径,在移动端模型预测性能优化和低成本接入的道路上另辟蹊径,充分发挥自身平台的优势。毕竟在移动端训练模型意义较小,还是交给服务端比较合理。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2017-07-06,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
深度 | 详解苹果Core ML:如何为iOS创建机器学习应用?
选自developer.apple 机器之心编译 参与:吴攀 在昨天开幕的 WWDC 2017 开发者大会上,苹果宣布了一系列新的面向开发者的机器学习 API,包括面部识别的视觉 API、自然语言处理 API,这些 API 集成了苹果所谓的 Core ML 框架;参阅机器之心报道《苹果开发者大会 WWDC 2017:首次全面展示苹果的人工智能实力》。软件主管兼高级副总裁 Craig Federighi 介绍说,Core ML 的核心是加速在 iPhone、iPad、Apple Watch 上的人工智能任务
机器之心
2018/05/08
1.6K0
深度 | 详解苹果Core ML:如何为iOS创建机器学习应用?
iOS 11: CORE ML—浅析
导语:在刚刚过去的WWDC上,苹果发布了Core ML这个机器学习框架。现在,开发者可以轻松的使用Core ML把机器学习功能集成到自己的应用里,让应用变得更加智能,给用户更牛逼的体验。 苹果在 iOS 5 里引入了 NSLinguisticTagger 来分析自然语言。iOS 8 出了 Metal,提供了对设备 GPU 的底层访问。去年,苹果在 Accelerate 框架添加了 Basic Neural Network Subroutines (BNNS),使开发者可以构建用于推理(不是训练)的神经网络。
腾讯Bugly
2018/03/23
1.8K0
iOS MachineLearning 系列(22)——将其他三方模型转换成CoreML模型
本篇文章将是本系列文章的最后一篇。本专题将iOS中有关Machine Learning的相关内容做了整体梳理。下面是专题中的其他文章地址,希望如果你有需要,本专题可以帮助到你。
珲少
2023/07/27
9850
iOS MachineLearning 系列(22)——将其他三方模型转换成CoreML模型
打造第一个自训练模型的Core ML应用
苹果人工智能生态系统正逐渐形成,今天我们就借着一个简单的Core ML应用简单窥探一下。
forrestlin
2018/08/20
1.4K0
打造第一个自训练模型的Core ML应用
实战 | 手把手教你用苹果CoreML实现iPhone的目标识别
在WWDC 2017上,苹果首次公布了机器学习方面的动作。iOS系统早已支持Machine Learning 和 Computer Vision ,但这次苹果提供了更合理,容易上手的API,让那些对基础理论知识一窍不通的门外汉也能玩转高大上的前沿科技。 这篇文章介绍了通过苹果最新的API把YOLO模型集成到APP中的两种方法。此前,AI100(rgznai100)介绍过YOLO这个项目,它是一个用于摄像头的实时目标检测系统,详情请参阅:《YOLO一眼就能认出你:看一个神经网络如何全视野实时检测目标》
AI科技大本营
2018/04/26
5K0
实战 | 手把手教你用苹果CoreML实现iPhone的目标识别
Turi Create 机器学习模型实战:你也能轻松做出Prisma 风格的图片!
如果你一直有关注Apple去年所发布的消息,就会知道他们在机器学习上投入了大量心力。自他们去年在WWDC 2017上推出Core ML以来,已经有大量结合机器学习技术的应用程序涌现。
iOSDevLog
2018/10/10
1.6K0
Turi Create 机器学习模型实战:你也能轻松做出Prisma 风格的图片!
CoreML尝鲜:将自己训练的 caffe 模型移植到 IOS 上
本文介绍了如何使用Core ML在iOS平台上进行模型前向推理,并使用UIImage进行加载和输入,支持多线程和GPU加速。同时,还针对SqueezeNet进行了实例演示。
姜媚
2017/10/16
3.6K0
CoreML尝鲜:将自己训练的 caffe 模型移植到 IOS 上
苹果Core ML人工智能框架介绍
随着人工智能技术的发展,机器学习已经成为推动软件创新的关键力量。对于移动开发者而言,如何将这些强大的机器学习能力整合到自己的应用中变得尤为重要。苹果公司推出的 Core ML 框架正是为此目的而生。自2017年随 iOS 11 一同发布以来,Core ML 已经成为 iOS 开发者构建智能应用的重要工具。本文将深入探讨 Core ML 的各个方面,从其设计理念、架构特性到实际应用案例,帮助开发者更好地理解和运用这一框架。
用户7353950
2024/11/23
5720
苹果Core ML人工智能框架介绍
iOS开发之集成目标检测模型YOLOv8
YOLO(You Only Look Once)是一种使用卷积神经网络进行目标检测的算法。YOLO 系列模型集成度很高、使用简单,是实际开发中常用的目标检测模型。但 YOLO 模型本身无法直接在 iOS 中使用,因此本文将讲解如何使用 YOLO 训练模型,并将训练好的模型转化为 Core ML 模型,然后在项目中使用。
YungFan
2024/05/21
7470
iOS开发之集成目标检测模型YOLOv8
2020 年,苹果的 AI 还有创新吗?
2020 年,移动设备上的机器学习将不再是什么热门的新事物。在移动应用中添加某种智能已经成为一种标准做法。
深度学习与Python
2020/08/07
1.3K0
初探 Core ML:学习建立一个图像识别 App
在 WWDC 2017 中,Apple 发表了许多令开发者们为之振奋的新框架(Framework) 及 API 。而在这之中,最引人注目的莫过于 Core ML 了。藉由 Core ML,你可以为你的 App 添增机器学习(Machine Learning)的能力。而最棒的是你不需要深入的了解关于神经网络(Neural Network)以及机器学习(Machine Learning)的相关知识。接下来我们将会使用 Apple 开发者网站上提供的 Core ML 模型来制作示例 App。话不多说,Let’s
iOSDevLog
2018/05/17
3.2K0
深度学习图像识别项目(下):如何将训练好的Kreas模型布置到手机中
今天,我们将这种经过训练的Keras模型部署到iPhone手机或者说iOS的APP中,在这里我们使用CoreML,这 是一种易于使用的Apple应用程序机器的学习框架。
AiTechYun
2018/07/27
5.9K0
深度学习图像识别项目(下):如何将训练好的Kreas模型布置到手机中
资源 | 用苹果Core ML实现谷歌移动端神经网络MobileNet
选自GitHub 机器之心编译 作者:Matthijs Hollemans 参与:李泽南 6 月 5 日开幕的 WWDC 2017 开发者大会上,苹果正式推出了一系列新的面向开发者的机器学习 API,包括面部识别的视觉 API、自然语言处理 API,这些 API 的背后都有 Core ML 机器学习框架的身影。苹果软件主管兼高级副总裁 Craig Federighi 在大会上介绍说,Core ML 致力于加速在 iPhone、iPad、Apple Watch 等移动设备上的人工智能任务,支持深度神经网络、
机器之心
2018/05/08
9670
资源 | 用苹果Core ML实现谷歌移动端神经网络MobileNet
Core ML 2有什么新功能
Core ML是Apple的机器学习框架。仅在一年前发布,Core ML为开发人员提供了一种方法,只需几行代码即可将强大的智能机器学习功能集成到他们的应用程序中!今年,在2018年WWDC上,Apple发布了Core ML 2.0-下一版Core ML,所有这些都集中在通过优化模型的大小,提高性能以及让开发人员定制自己的Core ML模型来简化流程。
iOSDevLog
2018/08/22
8060
Core ML 2有什么新功能
移动应用AI化成新战场?详解苹果最新Core ML模型构建基于机器学习的智能应用
Google刚刚息鼓,苹果又燃战火!这一战,来自移动应用的AI化之争。 近日,苹果发布专为移动端优化的Core ML后,移动开发者对此的需求到底有多强烈?去年大获成功的AI应用Prisma又能告诉我们什么?苹果的新武器Core ML具体该怎么用?野心勃勃的苹果在移动端机器学习上的布局到底有着怎样的心机?苹果真能撼动Google、Facebook的优势地位吗?未来AI的走向会不会就此改变?此中答案,本文将娓娓道来。 作者 | 胡永波 本届WWDC,Core ML是苹果送给移动开发者的一份大礼。使用它,
AI科技大本营
2018/04/26
2.2K0
移动应用AI化成新战场?详解苹果最新Core ML模型构建基于机器学习的智能应用
手把手 | 如何在你的iPhone上建立第一个机器学习模型(Apple最新CoreML框架入门)
大数据文摘作品 作者:MOHD SANAD ZAKI RIZVI 编译:Happen,Chloe,笪洁琼,魏子敏 引言 作为一名数据科学家,我一直有一个梦想——顶级科技公司在与我相关的领域不断推出新产品。 如果你观看了Apple公司最新的iPhone X发布会,你会发现iPhone X具有非常酷的特性,比如FaceID、动态表情、增强现实,这些特性都使用了机器学习。作为一名骇客,我决定亲自上手探索一下如何建立那样的系统。 进一步调查后我发现了一个很有趣的工具,那就是Apple官方面向开发者推出的机器学习框
大数据文摘
2018/05/24
2.8K2
iOS MachineLearning 系列(2)—— 静态图像分析之矩形识别
本系列文章将完整的介绍iOS中Machine Learning相关技术的应用。本篇文章开始,我们将先介绍一些与Machine Learning相关的API的应用。使用这些API可以快速方便的实现很多如图像识别,分析等复杂功能,且不会增加应用安装包的体积。
珲少
2023/04/27
8350
iOS MachineLearning 系列(2)—— 静态图像分析之矩形识别
Apple的Core ML3简介——为iPhone构建深度学习模型(附代码)
作者 | MOHD SANAD ZAKI RIZVI 编译 | VK 来源 | Analytics Vidhya 概述 Apple的Core ML 3是一个为开发人员和程序员设计的工具,帮助程序员进入
磐创AI
2019/11/22
2.3K0
Apple的Core ML3简介——为iPhone构建深度学习模型(附代码)
【实践操作】 在iOS11中使用Core ML 和TensorFlow对手势进行智能识别
在计算机科学中,手势识别是通过数学算法来识别人类手势的一个议题。用户可以使用简单的手势来控制或与设备交互,让计算机理解人类的行为。 这篇文章将带领你实现在你自己的应用中使用深度学习来识别复杂的手势,比
AiTechYun
2018/03/05
2.9K0
【实践操作】 在iOS11中使用Core ML 和TensorFlow对手势进行智能识别
Core ML简介及实时目标检测及Caffe TensorFlow coremltools模型转换
Core ML简介及实时目标检测,Caffe、Tensorflow与Core ML模型转换、Vision库的使用 转载请注明出处 https://cloud.tencent.com/developer/user/1605429 本篇文章首先会简要介绍iOS 11推出的Core ML机器学习框架,接着会以实际的已经训练好的Caffe、Tensorflow模型为例,讲解coremltools转换工具的使用,以及如何在iOS端运行相关模型。 当今是人工智能元年,随着深度学习的火热,人工智能又一次出现在大众视野中,
WWWWDotPNG
2018/04/10
3.3K0
Core ML简介及实时目标检测及Caffe TensorFlow coremltools模型转换
推荐阅读
相关推荐
深度 | 详解苹果Core ML:如何为iOS创建机器学习应用?
更多 >
LV.1
腾讯终端团队
作者相关精选
交个朋友
加入腾讯云官网粉丝站
蹲全网底价单品 享第一手活动信息
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验