我想开发一个基于服务器 - 客户端系统的 android 应用程序。我想同时开发后端和安卓客户端。现在是 2020 年,已经开发了许多框架来为程序提供服务器端任务。
我的问题是
android 世界中流行的后端技术是什么(从数据库到 REST API 框架),原因是什么?现在,我有 2 个框架/库。Spring 和 Node.js。Google Firebase 也在该列表中。
我还有一个问题
假设我做了一个后端项目,并想将它部署在一个真实的服务器上(在本地主机上开发)。应该做出哪些选择?例如,我在 Mysql 和 Springboot 框架上进行了开发,该服务器是否应该提供对 MySql 和 Java 的支持?部署数据库和后端应用程序的过程是什么?
谢谢。
我试图编译新Linux的内核获得https://github.com/qoriq-open-source/linux为(4.9版本)T1042D4RDB-64B使用嵌入式主板Yocto。它目前正在使用4.1.35-rt41.
我按照以下步骤操作:
bitbake 虚拟/内核 -c cleansstate
bitbake 虚拟/内核 -c 补丁
用我的新内核源代码替换 git 文件夹(https://github.com/qoriq-open-source/linux)
make ARCH=powerpc menuconfig
bitbake 虚拟/内核
结果是
新内核已成功编译,但 uImage 不包含我需要的驱动程序。新内核中只有 4 个驱动程序(deploy/images/t1042d4rdb-64b/rootfs.tar.gz),它们是“hid”、“input”、“misc”和“staging”这样的。
有很多驱动程序文件夹,Linux kernel 4.9例如 gpio、gpu、蓝牙、连接器等。
问题是
如何将我需要的驱动程序导入到新的 uImage 并将它们放入板中?或者我如何编译这个内核并选择所需的模块/驱动程序?我想要一个像我的 Ubuntu 内核一样的丰富内核。
我有一个关于Tensorflows Object Detection API 的问题。我用我自己的交通标志分类数据集训练了 Faster R-CNN Inception v2 模型,我想将它部署到 Android,但适用于 Android和/或Tensorflow Lite 的Tensorflows Object Detection API似乎只支持 SSD 模型。
有没有办法将 Faster R-CNN 模型部署到 Android?我的意思是如何将 Faster R-CNN 的冻结推理图放到 android API 而不是 SSD 冻结推理图?
android ×2
backend ×1
faster-rcnn ×1
linux ×1
linux-kernel ×1
openembedded ×1
python ×1
react-native ×1
server ×1
tensorflow ×1
yocto ×1