腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
结合
地
平面
和
增强
图像
我希望创建一个与ARCore的应用程序,将
结合
飞机检测
和
增强
图像
。基本上,我想首先检测飞机(类似于helloAR的例子,你可以放置安卓吉祥物),然后扫描
图像
(使用
增强
图像
),并将
图像
中出现的模型传输到飞机上,使其独立于
图像
。有人知道我是怎么做到的吗?
浏览 8
提问于2019-01-04
得票数 0
回答已采纳
1
回答
基于
增强
图像
跟踪的AR体验再到
平面
跟踪方法
我想用一幅
图像
(地板上14厘米的正方形)作为
增强
物体的坐标原点。遗憾的是,我使用ARCore的
增强
图像
功能(将设备保持在1.5到2.5m之外)的经验表明,在现实世界的场景中,当标记(
图像
)脱离摄像机帧,或者设备到标记之间的距离大于0.5m (也就是说,当
图像
的特征细节开始模糊时他说,当我使用ARCore的
平面
跟踪功能时,随着时间
和
距离的推移,体验是非常健壮的,但当然,模型的位置并没有完全定义,这取决于手动调整。分析不同的跟踪鲁棒性,我认为
增强<
浏览 0
提问于2020-11-12
得票数 0
1
回答
有没有办法检测单色
平面
,在Arcore中放置对象?
、
、
一切正常,但我想要检测单一(纯色)的
平面
以及。据我所知,ARcore只能检测具有某些图案或强烈对比的墙面的
平面
。是否有办法检测单色
平面
或手动将对象放置在单色
平面
上,以及对象的所有其他控制(旋转、移动)?
浏览 15
提问于2020-01-29
得票数 0
1
回答
扩展投影矩阵
、
、
、
我想用
增强
现实技术在人体内放置一颗3D心脏。我有一个从iPhone的摄像头内部导出的投影矩阵。使用Vuforia SDK生成的投影矩阵
和
姿势,可以完美
地
显示相对于framemarker的对象。为了保持错觉,标记后面的任何对象都需要将相机
图像
放在对象的前面。这张图是为了解释的目的。 由于投影矩阵将是
图像
平面
前面的空间,而不是远
平面
,对我来说,我似乎需要扩展投影矩阵,或者将整个世界放在另一个投影中。简单
地
把心放在标记后面是行不通的,原因很明显,你永
浏览 2
提问于2015-04-23
得票数 1
2
回答
根据我们之前处理的100多万张原稿生成照片
、
我们正在运营一个庞大的团队,为我们的客户处理儿童照片,该团队每年处理超过100万张照片。我们希望使用深度学习来完成尽可能多的工作。这意味着我想选择一个模型,并使用我们现有的数据来训练该模型。然后使用训练好的模型通过输入新的未处理的照片来生成照片。如有任何帮助,将不胜感激,谢谢!
浏览 10
提问于2017-01-04
得票数 0
1
回答
增强
现实,就像佐卡扎姆
、
什么算法用于
增强
现实,比如 在开始使用像这样的应用程序之前,我应该阅读哪些主题?
浏览 4
提问于2016-02-10
得票数 0
回答已采纳
1
回答
使用images创建和保存
增强
的
图像
时遇到问题
、
、
我正在使用imgaug库来
增强
图像
。我可以遍历这些文件夹,并使用以下代码扩充
和
显示文件夹中的
图像
: for i in os.listdir(path + '\\' +现在,我只是在尝试保存
增强
图像
的硬拷贝。,它们通常会显示出来,但它们被保存为硬拷贝,完全是
平面
的。它还保存了数百张这样的图片:为什么我的
图像
在Jupyter Labs中被正确
地<
浏览 0
提问于2020-01-11
得票数 0
2
回答
与Image Target关联的角色几乎不会移动
、
、
、
、
我正在开发一个使用unity 3d引擎
和
vuforia扩展的android
增强
现实游戏,我需要在
图像
目标上移动一个角色。问题是,当我将角色关联到
图像
目标(作为
图像
目标的子对象)时,移动就像角色被“粘”在
平面
上一样,它几乎不会从他的位置移动,它移动得非常慢。我已经在没有使用
增强
现实的情况下进行了测试,角色的移动完全没有问题,所以我不知道我做错了什么…… 提前谢谢。
浏览 0
提问于2015-04-19
得票数 0
2
回答
iOS:你认为用ARKit做“
图像
检测”是可能的吗?
、
、
、
、
我想用ARKit来做
增强
现实,但我已经检查过,这里的
平面
表面是可能的:。我想上传一个特定的图片,当我的未来应用程序将“扫描”,它会称赞我一些
增强
现实。
浏览 8
提问于2017-09-27
得票数 1
回答已采纳
1
回答
在python中使用read_file时的尺寸轴
、
、
、
Python包中看到了一堆DICOM映像:my_dicom = my_dicom.pixel_array 我的
图像
实际上是一个256张
图像
的堆栈,每个
图像
有3个通道,尺寸为256英尺,宽度为256。
浏览 1
提问于2018-01-25
得票数 2
2
回答
如何处理这个
图像
处理问题--分类
、
、
我有这样的
图像
: 我想要做的是将这张
图像
在花朵
和
树木之间进行分类,这样我就可以找到
图像
中被树木覆盖的区域,以及被这些花朵覆盖的区域。谢谢你的建议
浏览 0
提问于2011-08-06
得票数 0
1
回答
如何计算keras的扩图接口生成的镜像数量
、
、
、
我想计算从Keras的
图像
增强
API生成的
图像
的数量。我不清楚每个设置是否也与其他设置
结合
使用。我有以下设置:例如,它是对所有
增强
的
图像
也进行水平翻转,还是只对输入
图像
进行水平翻转那么,使用上述参数生成的
图像
总量是多少?
浏览 1
提问于2019-01-19
得票数 0
1
回答
启用自动对焦是否会导致AR场景中的跟踪问题?
、
、
我正在使用AR Core
和
Unity 2018.2.20f在Galaxy S7上构建AR场景,其中我使用AugmentedImageVisualizer跟踪
图像
并在前面放置3d gameObject。为了跟踪
图像
,我需要启用自动对焦。问题是我的锚会抖动,有时会完全移开并消失。从调试来看,似乎是相机自动对焦导致了跟踪问题。到目前为止,我最好的解决办法是,一旦检测到
图像
,就将相机配置切换到固定,但1/3的时间是锚点移动,同时切换到固定焦点。如果锚仍然在视线内,一旦相机固定在焦点上,跟踪效果就很好。
浏览 1
提问于2019-07-15
得票数 0
1
回答
使用Keras生成具有相应标签的瓶颈特征
增强
、
、
使用Keras,我希望训练的CCN需要我使用
图像
增强
和
迁移学习。 为了对磁盘上的一组
图像
进行
增强
,我使用ImageDataGenerator.flow_from_directory。为了在预先训练的网络上生成
增强
的瓶颈特性,我打算将预先训练网络的predict_generator方法与flow_from_directory
结合
使用。这已经成功
地
生成了瓶颈特征的
增强
张量。然而,对我来说,似乎没有办法获得相应的
增强
标签数
浏览 11
提问于2018-02-05
得票数 2
1
回答
如何在目标
图像
上完全拟合AR
图像
ViewRenderable?
、
、
、
、
我目前正在尝试使用viewRenderable将2D
增强
图像
放置在检测到的
图像
上。我可以在AR中渲染
图像
。但它总是放在错误的方向上。我实际上想要实现的是,一个
图像
是覆盖在当前的海报,图片,横幅。layout_height="match_parent" android:src="@drawable/tree" /> 当检测到
平面</
浏览 1
提问于2020-09-17
得票数 0
0
回答
Kudan Unity阴影捕手
我正在为IOS设备实现一个基于Kudan“我的第一个
增强
现实应用”示例教程的阴影捕手Kudan AR跟踪场景。我有一个平行光,一个3d物体
和
一个带有kudan阴影捕手材质的地
平面
。相机轨迹正在工作,3D对象受到平行光的影响,但我在地
平面
上看不到阴影。有没有人成功
地
尝试过?
浏览 3
提问于2016-07-13
得票数 0
1
回答
用于CNN分类的非实时数据
增强
。缺点是什么?
、
、
当人们谈论
和
使用数据
增强
时,他们主要是指实时数据
增强
吗?在
图像
分类的情况下,这将涉及到在拟合模型之前
增强
数据,并且每一个时代都使用一幅新的
增强
图像
。在这种情况下,只使用
增强
图像
来训练模型,而不使用原始
图像
,因此输入的大小实际上不会改变。 但非实时数据
增强
呢?这样,我的意思是在预处理阶段增加数据,这样您就可以真正
地
扩展输入的样本大小。然后你把所有这些
增强
图像
浏览 0
提问于2019-07-10
得票数 0
1
回答
OpenCV -叶叶柄去除
、
、
、
、
从研究中,人们尝试使用像顶帽这样的形态学操作来
增强
和
去除叶柄,但在某些情况下,这并不能很好
地
检测出叶子上的峰值(例如下面的例子)。从左到右(输入
图像
,轮廓,形态学应用,核大小结构元素,取决于每个叶种) 我将OpenCV与C++
结合
使用。
浏览 4
提问于2017-02-15
得票数 0
回答已采纳
1
回答
如何利用统一Vuforia探测地面/地面
、
我是vuforia的新手,我正在从事一个基于
增强
现实的项目。我想作为我的项目的一部分来探测地板。提前谢谢。
浏览 6
提问于2017-10-05
得票数 1
回答已采纳
1
回答
用统一3D
和
vuforia检测
图像
时如何用二维
图像
代替三维模型
、
、
我是新开发的
增强
现实应用程序。我遵循了一些教程,使用Unit3D
和
vuforia展示3D模型,它工作得很好。现在我需要显示2D
图像
而不是3D模型。
浏览 4
提问于2015-03-26
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
结合深度学习和支持向量机的海马子区图像分割
SAP C/4HANA与人工智能和增强现实技术结合的又一个创新案例
CV领域顶刊Information Fusion论文分享--LCAMix:基于局部和轮廓感知网格混合的医学图像分割数据增强
WebGL在医学成像方面的应用
三丰智能(300276.SZ):GPT大模型可以更好地增强工业领域现场设备和操作人员的沟通能力
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券