我正试图CVPixelBuffer从Apple的ARKit 获得RGB色彩空间.在我获取实例的func session(_ session: ARSession, didUpdate frame: ARFrame)方法ARSessionDelegate中ARFrame.在页面上显示使用金属的AR体验我发现此像素缓冲区位于YCbCr(YUV)颜色空间中.
我需要将其转换为RGB色彩空间(我实际需要CVPixelBuffer而不是UIImage).我在iOS上找到了一些关于颜色转换的东西,但我无法在Swift 3中使用它.
我想知道是否有人使用ARCore SDK实时识别设备前面的垂直平面.
通过使用线方程定义墙来设法获得不错的结果:
z = Multiplier * x + Constant (For every y)
Run Code Online (Sandbox Code Playgroud)
通过"for y y"评论我的意思是我忽略了y轴(从房间的2d映射看上面的墙),以便计算定义墙的线.
乘数是点之间的旋转:
let angleDeg = Float((360 - angle + 360) % 360) * Float.pi / 180.0;
Run Code Online (Sandbox Code Playgroud)
所有计算是:
let angle: Int = Int((atan2(pointA.z - pointB.z, pointA.x - pointB.x) * 180) / Float.pi) % 360
yRotation = Float((360 - angle + 360) % 360) * Float.pi / 180.0
if pointA.x == pointB.x {
multiplier = Float.infinity
} else {
multiplier = (pointA.z - pointB.z) / (pointA.x - …Run Code Online (Sandbox Code Playgroud) 与ARCore兼容的下一代Android智能手机是什么?
是否有已知的未来兼容设备列表?也许是一般项目时间表?
我们即将购买一些用于AR开发评估的单元,起初我们考虑尝试其中一个Tango设备(我们已经有过Tango的良好体验),但我们目前的赌注是ARCore平台将以其优势击败它市场份额.
目前,兼容设备仅限于:
但显然,我们更愿意选择更多种类(例如S8 +,G6 ......)
我知道有一个已知的黑客可以让它在其他设备上运行,但最好是在我们仍然可以的情况下使用兼容的设备开始.
另外,有没有办法在连接到网络摄像头的模拟器上运行ARCore ?用于测试目的.
android augmented-reality android-emulator android-augmented-reality arcore
如何使用使用 iPhonetrue-depth相机捕获的深度数据来区分真实的人类 3D 面部和相同的照片?要求是将其用于身份验证。
我做了什么:创建了一个示例应用程序来获取AVDepthData相机前面的连续流。
我已阅读所有有关支持动态文本大小的文章,但我的问题是我有一个由形状和一些文本组成的视图。我需要对此视图的高度进行硬编码,因此当用户使用较大的文本大小时,文本会与形状重叠。我想做的是检测何时使用较大的文本大小并增加视图的硬编码高度。
我在OS X上编写应用程序,它将从相机捕获帧.是否可以使用AVCaptureDevice.activeFormat属性设置捕获设置?我试过这个,但它不起作用(会话预设覆盖它).
我发现在IOS上可以将SessionPreset设置AVCaptureSession为AVCaptureSessionPresetInputPriority.
主要目的是选择比预设更详细的视频分辨率.
我正在制作一个增强现实应用程序,用户必须向目标扔球.我使用以下代码将球放在屏幕前10厘米处:
var translation = matrix_identity_float4x4
translation.columns.3.z = -0.1
print(translation.debugDescription)
print(frame.camera.transform)
projectile.simdTransform = matrix_multiply(frame.camera.transform, translation)
Run Code Online (Sandbox Code Playgroud)
目前游戏看起来像这样,但我想把球移到靠近屏幕的底部.
https://www.dropbox.com/s/4e122i5mtrti6fu/Screen%20Shot%202017-09-30%20at%203.16.15%20PM.png?dl=0
如何确保iOS AppStore上的应用程序仅显示启用ARKit的设备的兼容性?
我在ArFragment中显示了3D对象。因此,我将.obj文件和.mtl文件放在sampledata文件夹中。我右键单击obj文件,然后选择“导入Sceneform资产”以添加.sfa / .sfb文件。
因此,当我标记图像时,我可以显示3d对象,但是对象太大。
这是我的.sfa文件的详细信息
{
bound_relative_root: {
x: 0.5,
y: 0,
z: 0.5,
},
materials: [
{
name: "Material.001",
parameters: [
{
baseColor: null,
},
{
baseColorTint: [
0.80000000000000004,
0.80000000000000004,
0.80000000000000004,
1,
],
},
{
metallic: 1,
},
{
roughness: 0.120695,
},
{
opacity: null,
},
],
source: "build/sceneform_sdk/default_materials/obj_material.sfm",
},
],
model: {
attributes: [
"Position",
"TexCoord",
"Orientation",
],
collision: {},
file: "sampledata/dongbaek.obj",
name: "dongbaek",
recenter: "root",
scale: 0.200000
},
version: "0.52:1",
}
Run Code Online (Sandbox Code Playgroud)
我认为它可以按比例调整大小,但是我更改了值,但没有改变。相同大小
那么如何调整3d对象的大小呢?
添加3d对象文件以制作.sfa / .sfb文件时是否存在任何问题?(导入Sceneform Asset) …
我正在尝试制作一个 3d 模型,例如 Apple 在 Motion Capture 示例中提供的机器人(在 WWDC 2019 中显示),它可以通过替换 Apple 提供的机器人角色来模仿我在动作捕捉 ARKit 3.0 中的动作。
所需的解决方案:
苹果有没有什么特殊的软件可以用来创建robot.usdz文件?如果是,那么请提供详细信息?
我们怎样才能转换格式,如.glb/ .gltf/ .obj/.dae文件来.usdz使用苹果的基于Python的工具,而不影响它的场景图?
我们如何.usdz在 Xcode 中编辑文件的场景图并将更改成功保存到 .usdz 文件中?