相关疑难解决方法(0)

如何创建逼真的.scn文件?

看着苹果样品AR应用程序,有许多逼真的物体(杯子,蜡烛等).但是,使用Xcode上的场景工具包编辑器很明显,这只允许您创建基本对象.

我的问题是,什么软件/文件可用于创建逼真的scn对象?我确信有一些软件可以让你创建3D模型并将它们转换为scn文件.我只是不知道使用哪个软件或可以转换为哪些文件scn

注意:我知道Stackoverflow指南对于这个问题可能过于模糊/宽泛.我只是不知道在哪里提出我的问题,这似乎是最好的地方

ios scenekit arkit

32
推荐指数
3
解决办法
2万
查看次数

与ARCore和ARKit相比,Vuforia有任何限制吗?

我是增强现实领域的初学者,致力于使用智能手机创建建筑计划(平面图,房间平面图等,具有精确测量)的应用程序.所以我正在研究可用于此的最佳AR SDK.Vuforia对抗ARCore和ARKit的文章并不多.

请建议使用最好的SDK,各自的优点和缺点.

augmented-reality vuforia swift arkit arcore

14
推荐指数
1
解决办法
1万
查看次数

如何使用Xcode 10转换器创建USDZ文件?

在2018年的WWDC上,Apple宣布推出新的USDZ文件格式.

https://developer.apple.com/videos/play/wwdc2018/603/

关于创建USDZ文件,有人说:

要创建自己的usdz文件,usdz_converter已作为Xcode 10 beta的一部分捆绑在一起.它是一个命令行工具,用于从OBJ文件,单帧Alembic(ABC)文件,USD文件(.usda或usd.c)创建usdz文件

基本命令行是

xcrun usdz_converter myFile.obj myFile.usdz
Run Code Online (Sandbox Code Playgroud)

我已经安装了Xcode 10 beta,但是在2018年6月4日(build 10L176w)提供的Xcode 10 beta包中无法运行甚至找不到usdz_converter.

注意:我还在运行macOS highSierra,我还没有安装macOS Mojave 10.14测试版......但是没想到应该是这个原因.

有没有其他人能够让这个xcrun usdz_converter工作?

如果是这样,请分享步骤.

xcode augmented-reality swift arkit usdz

7
推荐指数
3
解决办法
9547
查看次数

Xcode 11.3.1 中 SceneKit 中的粒子系统文件在哪里

最近我将我的 Xcode 更新到 11.3.1。但是在使用 时SceneKit,我发现我无法创建粒子系统文件。

前

后

现在如何在文件中创建粒子系统?

xcode scenekit swift xcode11.3

6
推荐指数
2
解决办法
1481
查看次数

ARKit和SceneKit中的Blackhole着色器或支持着色器

我已经看到了ARKit的一些示例演示,其中材料A阻止了材料B,产生了遮挡效果,或者出现了黑洞或遮罩。但是它们似乎都在使用Unity引擎(我可能错了)。我想使用Apple已经提供的功能来做到这一点。或者使用Metal Shader。

想知道是否有人知道有一个技巧可以使ARKit甚至用SceneKit术语实现,当2个对象重叠但希望一个对象遮挡另一个对象,而使另一个对象为空时。CSG不可能正确,因为那太贵了吗?

谢谢!

augmented-reality ios scenekit swift arkit

5
推荐指数
1
解决办法
311
查看次数

哪种格式文件适用于3D模型SceneKit/ARKit更好用

我读了几个教程,如何在SceneKit/ARKit应用程序中放置3d对象,所有这些教程都使用.scn格式文件作为对象.

但是我发现如果我使用原始.dae格式并且不将其转换为.scn格式则没有任何问题.

我真的看不到.dae和.scn格式之间的任何区别.

实际上结果在我看来是一样的,但你能解释一下它们之间的差异以及在什么情况下我应该使用什么?

谢谢!

augmented-reality ios scenekit swift

5
推荐指数
2
解决办法
3868
查看次数

RealityKit 和 ARKit 的挑战

我想在 ARKit 中构建一个演示应用程序,并且我对 Beta 版当前可能实现的功能有一些疑问(Apple 一直将其称为 RealityKit 或 ARKit 3.0)。


我正在尝试构建的演示应用程序应执行以下操作:

  1. 识别真实环境中的物体或图像,并在那里创建一个锚点

  2. 渲染附加到锚点的虚拟模型

  3. 让虚拟模型呈现遮挡

  4. 让虚拟模型与锚图像/对象一起移动


我尝试改编早期版本(利用 SceneKit 的 ARKit 2.0)中的一些代码,但某些功能(如人物遮挡)不是 ARKit 2.0 的一部分。

由于 Apple 一直在迭代他们的测试版,因此在他们的网站上和 WWDC 2019 上宣传的许多功能似乎已经从 RealityKit 的文档中消失了(人物遮挡、身体跟踪、世界跟踪)。

根据我的理解,ARKit 2.0 可以实现第 (1) 和 (2) 项。第 (3) 项尽可能与测试版一起宣传,但我几乎看不到任何文档。

在最新的测试版中可以这样做吗?如果是这样,最好的方法是什么?如果没有,是否有任何解决方法,例如混合新旧 API 之类的?

augmented-reality scenekit swift arkit realitykit

5
推荐指数
1
解决办法
2144
查看次数

如何使用 RealityKit 渲染规范面网格?

I\xe2\x80\x99m 尝试使用 RealityKit 渲染面部网格,但尚未成功。因此,当 ARKit 检测到人脸时,ARSession 会生成一个 ARFaceAnchor,其中包含人脸几何网格。

\n

但它不能生成为模型实体。

\n

有人可以帮忙吗?

\n

swift arkit swiftui realitykit

5
推荐指数
1
解决办法
814
查看次数

ARAnchor到底是什么?

我正在尝试了解和使用ARKit。但是有一件事我无法完全理解。

苹果关于ARAnchor说:

现实世界中的位置和方向,可用于在AR场景中放置对象。

但这还不够。所以我的问题是:

  • 到底是ARAnchor什么?
  • 锚点和特征点之间有什么区别?
  • ARAnchor的特征点只是一部分?
  • 以及ARKit如何确定其锚点?

augmented-reality ios swift arkit realitykit

4
推荐指数
1
解决办法
949
查看次数

VisionOS 中的 Model3D 和 RealityView 有什么区别?

我认为 RealityView 应该能够做更多奇特的事情,但我仍然想弄清楚它们之间的确切区别。目前,它们彼此太相似了,例如它们都需要一个实体名称来初始化。我想知道什么时候 Model3D 就足够了,什么时候必须使用 RealityView?

swiftui realitykit visionos

4
推荐指数
1
解决办法
1967
查看次数