我想知道是否有任何选项可以将现有的ARCore早期阶段与Google Location 相结合,以便在现实世界中将AR对象放在lat/lng上?我知道这个可能与ARKit有关,但没有找到任何有关此类通过ARCore的信息.
有任何想法吗?提前致谢.
android location google-maps google-maps-android-api-2 arcore
我试图显示一个对象,而不使用ARCore点击屏幕.在Google提供的ARCore Sceneform的基本示例中,您需要在检测到曲面后点击屏幕.
我想实现它,AR显示对象而不点击屏幕.
Anchor newAnchor;
for (Plane plane : mSession.getAllTrackables(Plane.class)) {
if (plane.getType() == Plane.Type.HORIZONTAL_UPWARD_FACING
&& plane.getTrackingState() == TrackingState.TRACKING)
{
newAnchor = plane.createAnchor(plane.getCenterPose());
break;
}
}
Run Code Online (Sandbox Code Playgroud)
我试过这个没有点击屏幕显示.
如果有人知道怎么做,请帮助我.提前致谢
我想训练一个自定义模型来使用图像分类器模型或TensorFlow中的对象检测API来检测一些对象,当对象被检测到时,它可以显示与结果相关的图像3D,为此,我想使用ArCore SceneForm SDK,这些在Android项目中增强了有关机器学习和现实的技术。
我使用ArCore SceneForm SDK在Android相机上每秒获取帧以使用自定义检测模型从某些TensorFlow Lite类进行扫描时出现问题,然后显示3D图像。您能帮忙吗?
TensorFlow精简版 https://www.tensorflow.org/lite/
ArCore SceneForm SDK https://developers.google.com/ar/develop/java/sceneform/
android image-recognition tensorflow android-augmented-reality arcore
我在ArFragment中显示了3D对象。因此,我将.obj文件和.mtl文件放在sampledata文件夹中。我右键单击obj文件,然后选择“导入Sceneform资产”以添加.sfa / .sfb文件。
因此,当我标记图像时,我可以显示3d对象,但是对象太大。
这是我的.sfa文件的详细信息
{
bound_relative_root: {
x: 0.5,
y: 0,
z: 0.5,
},
materials: [
{
name: "Material.001",
parameters: [
{
baseColor: null,
},
{
baseColorTint: [
0.80000000000000004,
0.80000000000000004,
0.80000000000000004,
1,
],
},
{
metallic: 1,
},
{
roughness: 0.120695,
},
{
opacity: null,
},
],
source: "build/sceneform_sdk/default_materials/obj_material.sfm",
},
],
model: {
attributes: [
"Position",
"TexCoord",
"Orientation",
],
collision: {},
file: "sampledata/dongbaek.obj",
name: "dongbaek",
recenter: "root",
scale: 0.200000
},
version: "0.52:1",
}
Run Code Online (Sandbox Code Playgroud)
我认为它可以按比例调整大小,但是我更改了值,但没有改变。相同大小
那么如何调整3d对象的大小呢?
添加3d对象文件以制作.sfa / .sfb文件时是否存在任何问题?(导入Sceneform Asset) …
我正在尝试使用新的Google API API环境HDR进行照明估算。我正在按照开发人员指南中的说明进行操作,但是我不知道如何实现特定于应用程序的代码。
我已经像这样配置会话:
config.setLightEstimationMode(Config.LightEstimationMode.ENVIRONMENTAL_HDR);
session.configure(config);
Run Code Online (Sandbox Code Playgroud)
并将此代码放入我的更新调用中
private void onSceneUpdate(FrameTime frameTime) {
if (fragment instanceof ArFragment && loadedRenderable) {
if ( frame == null )
return;
LightEstimate lightEstimate = frame.getLightEstimate();
// note - currently only out param.
float[] intensity = lightEstimate.getEnvironmentalHdrMainLightIntensity();
float[] direction = lightEstimate.getEnvironmentalHdrMainLightDirection();
//app.setDirectionalLightValues(intensity, direction);
float[] harmonics = lightEstimate.getEnvironmentalHdrAmbientSphericalHarmonics();
//app.setAmbientSphericalHarmonicsLightValues(harmonics); // app-specific code.
// Get HDR environmental lighting as a cubemap in linear color space.
Image[] lightmaps = lightEstimate.acquireEnvironmentalHdrCubeMap();
for (int i = 0; i < …Run Code Online (Sandbox Code Playgroud) 我正在使用一个 Sceneform android sdk 动画示例项目,并尝试导入我自己的 FBX 进行测试。我将我的 fbx 添加到 sampledata/models 并单击 Import Sceneform Asset。我收到一个错误......“Gradle 构建失败,新的导入规则。你想恢复更改吗?”
在事件日志窗口我得到错误:java.lang.RuntimeException:java.lang.NoSuchMethodError:com.android.tools.idea.templates.recipe.RecipeExecutor.append(Ljava/io/File;Ljava/io/File;)伏
我使用的是 Android Studio 3.6 Gradle 3.6.0 场景表单插件 1.15
欢迎任何解决此问题的建议
我创建了一个ARCore Session并通过Session #setCameraTextureName方法附加了一个OpenGL纹理id 来显示我的相机数据.我想访问纹理上显示的摄像机图像数据字节.
ARKit和Tango提供对每个帧的图像字节的访问,但似乎在ARCore API中没有任何容易提供的东西.
在使用ARCore时,还有其他方法可以访问图像字节吗?
在ARCore示例中,andy.obj文件的意义是什么?假设我们用新图像替换andy.png,我们如何为新图像生成OBJ文件.
我想知道如何围绕其 Y 轴旋转对象。
例如,我想围绕其 Y 轴旋转 Google 示例应用程序 hello_ar_java https://github.com/google-ar/arcore-android-sdk/tree/master/samples/hello_ar_java的 droid bot,角度为 alpha .
我正在Android Project中使用Sceneform SDK。
我的项目中有sfb和sfa对象,并且我希望对象的初始旋转被旋转90度。我该如何实现?
我在这些文件中找到了下一个代码,并更改了比例。
但是我没有找到轮换的方法。
model: {
attributes: [
"Position",
"TexCoord",
"Orientation",
],
collision: {},
file: "sampledata/models/redmixer.obj",
name: "redmixer",
scale: 0.010015,
},
Run Code Online (Sandbox Code Playgroud) arcore ×10
android ×7
sceneform ×3
java ×2
google-maps ×1
location ×1
model ×1
object ×1
opengl-es ×1
tensorflow ×1