腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如
何在
FaceTracking
的
iOS
中
使用
ARKit
应用
眼球
旋转
、
、
我正在
使用
ARKit
的
ARFaceTrackingConfiguration来跟踪面部混合形状以及左眼和右眼
的
变换。我将此数据导出到json
中
,并将此数据
应用
于3d模型(预先配置
的
形状键、眼节点)。我能够
应用
混合变形数据,但我对如何
应用
眼睛
旋转
感到震惊。我从FaceAnchor得到了leftEyeTransform,rightEyeTransform,它是simd_float4*4。下面是如何从变换值对眼睛节点<em
浏览 32
提问于2020-02-19
得票数 0
2
回答
在运行时请求
iOS
上
的
相机权限
、
、
、
我们在
iOS
上构建
的
应用
程序
使用
ARKit
/
FaceTracking
。我们希望在
使用
相机之前立即在运行时请求它
的
权限,并且在
应用
程序启动时请求而不是。应该发生什么当编译后
的
应用
程序在
iOS
浏览 2
提问于2020-09-09
得票数 0
2
回答
如
何在
ARkit
scene
iOS
中
添加包含文本
的
2D视图
、
、
、
如
何在
ARkit
scene
iOS
.How
中
添加包含文本二维视图可以将该视图添加到
旋转
节点时不
旋转
的
节点顶部。
浏览 1
提问于2017-07-26
得票数 12
1
回答
无法运行会话
的
ARKit
,此设备不支持配置。
、
、
ARWorldTrackingSessionConfiguration 6+ Unable to run the session, configuration is not supported on this device上
使用
浏览 0
提问于2017-06-16
得票数 14
回答已采纳
1
回答
ARAnchor和AnchorEntity有什么区别?
、
、
、
我一直在看一些示例代码,我有点困惑于ARAnchor和AnchorEntity之间
的
区别,以及何时
使用
其中
的
一种。 在文档
中
,它说
ARKit
使用
添加
的
ARAnchor来优化锚周围区域
的
跟踪。AnchorEn
浏览 5
提问于2019-08-21
得票数 11
回答已采纳
2
回答
使用
swift在Flutter
应用
中集成
ARKit
、
、
、
我正在尝试
使用
flutter为安卓和
IOS
创建
应用
程序,我需要
使用
ARKit
将AR集成到我
的
IOS
应用
程序
中
。如
何在
IOS
应用
程序中
使用
swift继续工作?
浏览 0
提问于2018-12-14
得票数 1
3
回答
苹果视觉图像识别
、
、
、
、
和其他许多开发人员一样,我也投入了苹果新
的
ARKit
技术。太棒了。然而,对于一个特定
的
项目,我希望能够识别(真实
的
)场景
中
的
图像,或者在其上投射一些东西(就像Vuforia对其目标图像所做
的
那样),或者
使用
它在我
的
应用
程序
中
触发一个事件。在我关于如何实现这一目标的研究
中
,我偶然发现了苹果公司
的
愿景和CoreML框架。这似乎很有希望,虽然我还没能把我
的</e
浏览 1
提问于2017-09-11
得票数 10
回答已采纳
1
回答
RealityKit:未能从USDZ文件加载实体
、
、
、
、
我最近开始在
iOS
中学习AR。我
的
第一个尝试是将眼镜模型从usdz文件导入到reality composer
中
,并将它们锚定到一张脸上。这样做效果很好。然后,我尝试
使用
相同
的
文件以编程方式完成此操作,但什么也没有发生。 由于它第一次工作,并且当我以编程方式加载文件时,我能够打印模型
的
描述(见下文),我不认为问题出在文件
中
。下面是代码 import UIKitimport RealityKit class ViewContr
浏览 143
提问于2021-04-05
得票数 0
2
回答
需要帮助来解决Apple崩溃报告
、
、
、
苹果屏蔽了我
的
应用
,因为“它在发布时崩溃了”,但实际上是在内部测试
中
,因为几周和3(包括我在内)正在测试相同
的
构建,它工作正常……所以我不能理解发生了什么.有没有人能帮我翻译一下苹果发给我
的
崩溃日志?附言:我不得不在结尾剪掉一小部分,因为“正文不能超过30000个字符”。
浏览 1
提问于2017-09-05
得票数 2
4
回答
iPhone 5s上
的
ARKit
、
我正尝试在我
的
iPhone 5s上
使用
ARKit
,但当我构建并运行时,我得到了这样
的
消息: 此iPhone 5s (型号A1457、A1518、A1528、A1530)运行
的
是
iOS
11.3 (15E216),此版本
的
Xcode可能不支持该版本。我还有其他项目,我在设备上构建和运行都没有问题,但由于某种原因,当我包含
ARKit
时,它就不会出现问题。
浏览 2
提问于2018-04-14
得票数 2
1
回答
如
何在
旧
的
ARKit
设备上
使用
iOS
?
、
、
、
、
随着测试版
的
iOS
11,
ARKit
应用
程序崩溃时,即使
使用
3自由度,应该与旧设备兼容? 如果不支持
ARKit
,我如何防止
应用
程序崩溃?
浏览 0
提问于2017-07-12
得票数 4
1
回答
我应该
使用
哪种增强现实软件?
、
、
、
、
因此,我目前正在上大学四年级
的
设计课程,并想出了一个增强现实
应用
程序
的
想法。基本上,这个
应用
程序会这样做:点击横幅将把用户带到一个网站。我知道不同
的
AR工具包,
如
ARkit
,ARToolkit,vuforia,scenekit和其他几个,但我想问问人们我应该
使用
哪些来实现这些预期<
浏览 6
提问于2017-10-15
得票数 1
1
回答
如
何在
Android Studio
的
摄像头视图中添加机型?
、
、
、
、
我正在开发基于android
的
增强现实
应用
程序。当相机视图打开时,我想在其中添加模型或图像。我知道有像vuforia这样
的
库,但我不想
使用
库。
浏览 12
提问于2018-02-12
得票数 0
1
回答
旋转
整个AR会话轴(以与真实世界西北向上对齐)
、
、
、
、
我试图对我
的
整个AR会话
应用
一个
旋转
,以便AR会话世界与真实世界
的
西北向上协调。我
使用
的
是Xcode 12.0.1。我试过搜索这个,但找不到我要找
的
东西。任何帮助或指向正确
的
主题都是非常感谢
的
。self.asSceneView.debugOptions = [ARSCNDebugOptions.showWorldOrigin, … ] 稍后(在viewDidLoad之后),通过按钮点击,我调用一个函数,1)获取摄像机转换,2)对转换<
浏览 3
提问于2020-10-02
得票数 1
1
回答
11.4下
的
ARKit
3.5和Xcode版本
、
、
、
、
ARKit
3.5显然只在Xcode 11.4
中
工作,Xcode收到了更新
的
SDK。我在Mojave上只有11.3,Mojave不支持11.4。我宁愿现在还不向卡塔莉娜汇报。如果我想在LIDAR中
使用
新
的
iPad Pro,那么如果我用旧
的
Xcode构建它会发生什么呢?我知道我可能不能
使用
更新
的
API函数调用,但是用旧
的
Xcode构建
的
应用
程序是否
使用
更好
的
跟踪和L
浏览 1
提问于2020-04-23
得票数 0
回答已采纳
1
回答
如何分发
ARKit
应用
程序?
、
、
、
、
如
何在
不
使用
TestFlight
的
情况下分发
iOS
11
ARKit
应用
? 因为上传用测试版Xcode构建
的
档案到Testflight是不可能
的
?
浏览 5
提问于2017-07-13
得票数 0
回答已采纳
2
回答
在Unity/Xcode上构建
iOS
失败
、
、
、
我目前正在尝试建立一个统一
的
项目,该项目是为VR而设置
的
,并为
iOS
的
AR而设置。我
使用
的
是AR Foundation插件+
ARKit
/ARCore插件。尝试
使用
Xcode构建它并在我
的
iPhone上运行,我得到了这些错误。 我试着改变了一堆播放器设置。
浏览 2
提问于2019-06-25
得票数 0
3
回答
有没有可能像Vuforia那样在
ARKit
中跟踪物体?
、
、
、
、
如果苹果
的
ARKit
像Vuforia那样支持3D对象跟踪(甚至图像跟踪),我找不到任何信息。我不想把3D模型放在世界
的
任何地方。相反,我希望检测一个特定
的
3D对象,并将AR对象放在该对象
的
前面和顶部。 简单
的
例子:我想在现实世界中跟踪一辆特定
的
玩具车,并在AR场景
中
在它
的
顶部添加一个扰流板。有没有人能给我提供一些可能或不可能
的
信息?
浏览 2
提问于2017-06-29
得票数 16
回答已采纳
1
回答
如何求瞳孔中心与镜框边缘
的
距离
、
、
、
、
我正在尝试测量瞳孔中心和眼镜框底部顶部边缘之间
的
实际距离,
如
照片中所示: ? 我正在
使用
ARKIt
,并且
使用
faceAnchor.leftEyeTransform和faceAnchor.rightEyeTransform,我能够可靠地获得每个人
的
瞳孔中心。然而,我正在努力检测帧
的
边缘。所有在线参考都指向
使用
ARKit
检测平面,这似乎不适用于这种情况。这绝对可以做到,因为我已经看到
iOS
应用
程序
浏览 21
提问于2020-04-13
得票数 1
回答已采纳
1
回答
ARKit
2:
使用
ARKit
放置3D对象会导致屏幕冻结在Xcode 10.1和
iOS
12
中
、
、
、
、
我正在
使用
ARKit
在真实环境中放置虚拟对象。它在Xcode 9和
iOS
11
中
工作得很好。但是当我更新Xcode和
iOS
时,如果我将虚拟物体放置在探测到
的
平面上,它就会冻结,如果我
旋转
相机,相机也会连续刹车。我将在Xcode
中
获得以下登录 带我去解决这个问题
浏览 0
提问于2018-11-20
得票数 3
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
ARKit Remote与面部跟踪
ARkit为虚拟现实打开新纪元
ARKit001_学习指导篇
苹果的ARKit 1.5是啥?改变世界的交互方式即将到来,你再不了解就OUT了
苹果将在iOS 11.3推出ARKit 1.5版本,增加垂直表面识别
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券