在V2中,您可以点击/api/users/default获取信息的路径,例如用户的用户名.这在此处记录:https://developers.google.com/youtube/2.0/developers_guide_protocol_profiles
在我们迁移到V3时,我还需要能够提取用户名,但找不到任何显示如何操作的文档.此功能是否在V3中复制,还是有另一种方法可以完成此任务?
谢谢!
我目前在python中有TensorFlow代码,并试图找到将其添加到Android应用程序的最佳方法.我认为有几个选项可以做到这一点.
我一直在关注ML套件(https://developers.google.com/ml-kit/).但是我不确定这是否可行,因为我使用了一些特定的TensorFlow函数来在图中进行计算.例如这两行:
t_score = tf.reduce_mean(t_obj)
t_grad = tf.gradients(t_score, t_input)[0]
Run Code Online (Sandbox Code Playgroud)
ML套件可以做到吗?
另一种选择是在不使用ML套件的情况下将TensorFlow(lite)用于Java,但是看看它似乎有限的Java API,上面的两个调用是否可以在java中进行?
最后一个选项是托管python代码并将其用作后端,以便Android应用程序可以将数据发送给它并接收结果.由于无法在移动设备上进行计算,因此这将更加昂贵.因此,如果可能,其他选项是首选.
你会怎么做?
我有一个 Android 应用程序,它使用 Android Mobile Vision API 来识别文本 (OCR)。但是,安装该应用程序的设备未安装 Google Play 服务。
我想知道是否可以仅安装 Mobile Vision API 或 ML Kit,而不安装 Google Play 服务。
操作系统:棒棒糖
android xamarin google-play-services google-vision firebase-mlkit
我在SO和一些不错的博客文章上挖了很多但似乎我有独特的要求分别阅读视频和音频缓冲区,以便在录制时继续进行处理.
我的用例就像当用户启动视频录制时,我需要使用连续处理视频帧ML-Face-Detection-Kit并连续处理音频帧以确保用户说出某些内容并检测噪声级别.为此,我想我需要一个单独的缓冲区中的视频和音频,并在处理后,我将合并它并保存到MP4文件中作为录制.
我尝试过由伟大的家伙Mattia Iavarone开发的CameraView,但它只提供视频帧.
我愿意接受其他有用的建议/反馈来处理这种情况.
android video-processing audio-processing android-camera2 firebase-mlkit
我正在尝试在运行 Android 9 的 Android 设备上使用新的 Google 机器学习 sdk ML Kit。来自官方网站:
ML Kit 将 Google 的 ML 技术(例如 Google Cloud Vision API、TensorFlow Lite 和 Android Neural Networks API)整合到一个 SDK 中,让您可以轻松地在应用程序中应用 ML 技术。无论您需要基于云的处理能力、移动优化的设备上模型的实时功能,还是自定义 TensorFlow Lite 模型的灵活性,ML Kit 都只需几行代码即可实现。
我认为这意味着在至少具有 Android 8.1 的设备上(根据 nnapi 的文档),SDK 可以使用 NNAPI。但是,当我在 Android 7.1(不支持 nnapi)的设备上运行相同的应用程序时,我获得了与使用 Android 9(理论上是 NNAPI)的设备相同的性能。如何将 ML Kit 与 NNAPI 结合使用?我做错了什么吗?mlkit 文档链接: https: //firebase.google.com/docs/ml-kit/