腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(7167)
视频
沙龙
1
回答
如何
使用
Swift
、
UIkit
和
CoreML
在
iOS
应用程序
中
访问
图像
分类
器
ML
模型
的
预测
结果
、
、
、
我正在尝试开发一个
应用程序
,
使用
苹果
的
CoreML
训练
模型
对相机拍摄
的
图像
或从
图像
库中选择
的
图像
进行
分类
。该
模型
经过了适当
的
训练
和
测试。
在
将其添加到xcode项目之后,我
使用
Preview对其进行了测试,
结果
显示没有任何问题。但当我试图
使用
Swift
获得<e
浏览 43
提问于2021-11-09
得票数 1
1
回答
使用
CoreML
对NSImages进行
分类
、
、
我正在尝试
使用
Xcode
CoreML
来对简单
的
单个数字或字母
的
图像
进行
分类
。首先,我只是
使用
数字
的
.png
图像
。
使用
Create
ML
工具,我构建了一个
图像
分类
器
(不包括任何视觉支持内容),并提供了一组大约300个训练
图像
和
50个单独
的
测试
图像
。当我运行这个
模型</
浏览 26
提问于2020-06-28
得票数 1
1
回答
TensorFlow for
Swift
-
iOS
、
、
、
、
我想在我
的
快速
应用程序
中
使用
TensorFlow,我引用了这个页面。尽管如此,我还是很少有来自指南教程
的
疑问,如下所示。
在
iOS
应用程序
中
实现是否需要Python编码知识?我能做一个Python桥到
Swift
浏览 10
提问于2020-01-28
得票数 0
1
回答
文本
分类
中
作为字符串
的
模型
的
输入参数
、
、
、
、
我正在
使用
scikit-learn构建文档
分类
系统,它工作得很好。我正在将
模型
转换为Core
ML
模型
格式。但是
模型
格式将输入参数排除为multiArrayType。我想让它排除字符串或字符串数组,这样我就可以很容易地从
IOS
应用程序
中
预测
。= coremltools.converters.sklearn.convert(logreg)
coreml
_model 打印<em
浏览 11
提问于2018-02-26
得票数 0
回答已采纳
1
回答
可以
在
我
的
coreML
模型
中集成Xcode
中
的
python模块吗?
、
、
、
我已经训练了我
的
Keras model,并将其转换为
coreML
模型
。我还
使用
Swift
开发了一个iPhone
应用程序
。现在,我想
使用
librosa库从输入音频文件中提取特征,并将这些特征传递给训练好
的
模型
以获得
预测
。
预测
结果
将显示
在
iPhone上。 我
如何
才能做到这一点?我是不是错过了什么?请在这方面提供帮助!我是
Swift
<
浏览 16
提问于2020-01-30
得票数 1
1
回答
用
iOS
11 11
模型
进行
图像
分类
-
使用
协同工具
和
经过训练
的
.caffemodel转换问题
、
、
、
、
使用
coremltool
和
经过训练
的
.caffemodel似乎存在一些转换问题。我能够训练
和
测试caffe狗
模型
(120个类别,20k
图像
),它通过了直接caffe
分类
的
测试。& deploy.txt装进苹果
iOS
11
CoreML
的
.mlmodel消费品
中
时,我有不同
的
预测
结果
。实际上,没有错误加载
和</em
浏览 0
提问于2017-07-22
得票数 3
回答已采纳
1
回答
如何
在
iOS
中
实现随机决策森林
分类
、
、
、
、
我正在
使用
objective-c
和
Xcode制作一个
iOS
应用程序
,它将从用户那里收集
和
分析一些数据。
使用
此数据,它将返回3个
分类
中
的
一个。我可以
使用
R或Python
中
的
训练数据来创建具有此功能
的
随机森林
模型
。我想知道现在我可以
在
iOS
应用程序
中
实现这个
模型
浏览 0
提问于2016-01-19
得票数 2
3
回答
尝试初始化
CoreML
模型
会产生不明确
的
错误消息
、
、
、
我正在为
iOS
开发一个涉及
CoreML
的
消息过滤扩展( 14.0 )。我正在尝试加载我
使用
Create生成
的
mlmodel (TSF_
ML
_2 1.mlmodel)。
在
Xcode/Create
的
预览部分中
使用
该
模型
表面上是有效
的
,但是当以编程方式初始化
模型
时,我会得到以下错误,无法找到任何信息:
模型
数据失败
的
文本
分类
浏览 9
提问于2020-07-05
得票数 0
2
回答
macOS
中
基于视觉
和
CoreML
的
图像
分类
、
、
、
我已经训练IBM Watson识别感兴趣
的
对象。由于远程执行不是必需
的
,因此我想
使用
提供
的
工具导出到.mlmodel,并在macOS
中
运行。 不幸
的
是,学习
Swift
和
macOS开发也不是必需
的
。作为另一种选择,有谁知道macOS
应用程序
的
骨架,可以
在
文件列表上运行Vision并以表格形式获得
分类
分数?谢谢。
浏览 4
提问于2018-12-09
得票数 1
2
回答
从Yolo到keras到
coreml
:获得信心
和
坐标作为输出
、
、
、
将.weights(暗网)转换为.h5 (已验证,而且keras
模型
也工作得很好) coremltools.converters.keras.convert( input_names='image', class_labelsimage_input_names='image
浏览 5
提问于2020-05-15
得票数 0
回答已采纳
2
回答
在
iOS
12.4上
使用
CoreML
Word标记
器
、
、
、
、
我训练了一个具有迁移学习
和
动态嵌入
的
Core
ML
文本
分类
器
。它工作得很好,但当我尝试在运行
iOS
12.4
的
设备上测试时,它无法
预测
,并给出了错误:
在
模拟
器
上运行
浏览 4
提问于2020-02-17
得票数 0
2
回答
识别特定
的
图像
,而不是
图像
中
的
对象
、
我需要
使用
iPhone摄像头识别特定
的
图像
。我
的
目标是拥有一组20张图片,当其中一张照片
的
打印或其他显示出现在相机前时,
应用程序
就能识别出这张图片。我考虑过
使用
分类
器
(
CoreML
),但我认为它不会给出预期
的
结果
。例如,如果我有一个识别水果
的
模型
,然后我向它展示了两张不同
的
香蕉图片,它会将它们都识别为香蕉,这不是我想要
的
浏览 20
提问于2017-12-28
得票数 0
回答已采纳
1
回答
快速
图像
分类
器
中
CoreML
模型
的
建立
、
、
、
、
我已经训练了一个
模型
来区分恶性
和
良性皮肤病变,以潜在地检测一个病人是否患有皮肤癌,并将我
的
角膜
模型
转换为
coreML
。现在,我正在尝试将我
的
模型
应用到一个
ios
应用程序
中
,它
使用
的
是快速(通过Xcode),这一点我完全没有经验(还在尝试
和
错误中学习)。目前,我正试图通过一个简单
的
应用程序
来实现
模型
的</
浏览 0
提问于2020-03-19
得票数 0
1
回答
CoreML
输出标签NSCFString -未正确显示
的
标签
、
、
、
、
我正在开发一个需要
使用
CoreML
模型
来执行
图像
分类
的
iOS
应用程序
。我按照谷歌
的
教程操作,一切似乎都很顺利。然而,当它
浏览 0
提问于2020-09-17
得票数 0
1
回答
只有
iOS
导入
的
ARKit视觉框架
、
、
、
、
我希望这不是一个愚蠢
的
问题,但是为什么这个
iOS
Swift
代码能够成功编译呢?import
UIKit
} 我希望VNSequenceRequestHandler不会被找到,因为Vision不是导入
的
。因为如果我右键单击
浏览 7
提问于2021-07-14
得票数 2
回答已采纳
1
回答
增强现实- ARKit -
在
环境
中
动态检测对象(不
使用
标记/ibeacon)
、
有哪些方法可以识别房间中
的
特定对象以及用户
的
位置,以便
使用
AR进行室内导航。我知道我们可以
使用
信标
和
标记来识别房间中
的
物体或用户
的
位置。
在
不
使用
它们
的
情况下,找到用户位置
和
识别AR体验
的
对象
的
其他替代方案是什么。我正在探索
使用
iOS
设备进行室内导航
的
AR (目前主要是
使用
ARKit)。如果我们
浏览 13
提问于2017-12-28
得票数 0
2
回答
如何
在
iOS
上运行Tensorflow对象检测
、
、
、
我正在尝试找出在
iOS
应用程序
中
从Tensorflow
模型
(Inception或mobilenet)运行对象检测
的
最简单方法。我
在
我自己
的
应用程序
和
网络中
使用
了
iOS
Tensorflow
图像
分类
功能,并遵循
在
我自己
的
应用程序
和
之后
的
网络上,我
在
安卓系统中
浏览 2
提问于2019-03-22
得票数 5
3
回答
如何
将python
中
的
ML
模型
连接到react原生应用
、
、
我用python做了一个
ML
模型
,现在我想在react native
应用程序
中
使用
这个
模型
,这意味着前端将基于react native,
模型
是
在
python上制作
的
,我
如何
将这两个东西连接起来
浏览 1
提问于2019-10-25
得票数 2
1
回答
没有softmax
的
图像
分类
器
、
我
使用
Turi Create生成一个Core
ML
图像
分类
器
,如下所示:data = tc.SFrame('data.sframe')model.export_
coreml
('classifier.mlmodel') 然而,
模型
给了我softmax
浏览 3
提问于2018-03-08
得票数 2
2
回答
CoreML
转换
的
keras
模型
请求多个数组输入,而不是Xcode
中
的
图像
、
、
、
、
我
的
目标是将该
模型
转换为
CoreML
,并将其用于
iOS
上
的
图像
分类
。”,image_input_names =“数据”,class_labels =“类路径”) 但是,
在
将
CoreML
模型
复制到Xcode
中
之后,它请求一个形状为512,1,1
的
多个数组(我猜这是由于神经网络
的
图像
数组格式所致
CoreML
模型</em
浏览 1
提问于2017-12-08
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
如何基于苹果推出的CoreML 3.0从零开发一个图像分类应用?
你用iPhone打游戏,有人却用iPhone来训练神经网络
手把手教你用苹果Core ML和Swift开发人脸目标识别APP
Apple机器学习和视觉生态系统更新:Core ML、Create ML和VisionKit
在Mac上训练机器学习模型,苹果WWDC发布全新Create ML
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券