我在docker容器中实现了一个API,我想将这个容器部署到一个远程的ubuntu服务器上.我怎么能这样做呢?我的API使用了很多资源,我使用了MLDB框架来实现它.我想在这个远程ubuntu服务器上部署包含API的容器.到目前为止,我已经找到了许多在AWS和DigitalOcean上部署API的指南,但是因为我已经可以访问远程ubuntu服务器而不需要这些服务器了吗?那么我如何部署我的容器以便其他人能够测试我的API?如果有更好的方式来部署我的API(希望免费或廉价),请告诉我.
提前致谢.
我正在尝试在 Tensorflow 2 对象检测 api 中运行一些模型的训练。
我正在使用这个命令:
gcloud ai-platform jobs submit training segmentation_maskrcnn_`date +%m_%d_%Y_%H_%M_%S` \
--runtime-version 2.1 \
--python-version 3.7 \
--job-dir=gs://${MODEL_DIR} \
--package-path ./object_detection \
--module-name object_detection.model_main_tf2 \
--region us-central1 \
--scale-tier CUSTOM \
--master-machine-type n1-highcpu-32 \
--master-accelerator count=4,type=nvidia-tesla-p100 \
-- \
--model_dir=gs://${MODEL_DIR} \
--pipeline_config_path=gs://${PIPELINE_CONFIG_PATH}
Run Code Online (Sandbox Code Playgroud)
训练作业已成功提交,但当我在 AI 平台上查看提交的作业时,我发现它没有使用 GPU!

另外,在查看我的训练作业日志时,我注意到在某些情况下它无法打开 cuda。它会这样说:
Could not load dynamic library 'libcudart.so.11.0'; dlerror: libcudart.so.11.0: cannot open shared object file: No such file or directory; LD_LIBRARY_PATH: /usr/local/cuda/extras/CUPTI/lib64:/usr/local/cuda/lib64:/usr/local/nvidia/lib64
Run Code Online (Sandbox Code Playgroud)
几个月前我正在使用 AI 平台进行训练,并且很成功。不知道现在有什么变化!事实上,对于我自己的设置来说,没有任何改变。
作为记录,我现在正在训练 Mask RCNN。几个月前,我训练了 Faster RCNN …
object-detection tensorflow object-detection-api gcp-ai-platform-training google-ai-platform