小编sni*_*r71的帖子

如何在远程ubuntu服务器上部署docker容器?

我在docker容器中实现了一个API,我想将这个容器部署到一个远程的ubuntu服务器上.我怎么能这样做呢?我的API使用了很多资源,我使用了MLDB框架来实现它.我想在这个远程ubuntu服务器上部署包含API的容器.到目前为止,我已经找到了许多在AWS和DigitalOcean上部署API的指南,但是因为我已经可以访问远程ubuntu服务器而不需要这些服务器了吗?那么我如何部署我的容器以便其他人能够测试我的API?如果有更好的方式来部署我的API(希望免费或廉价),请告诉我.

提前致谢.

api ubuntu ubuntu-server docker mldb

20
推荐指数
3
解决办法
2万
查看次数

使用对象检测 api 进行的训练未在 AI Platform 中的 GPU 上运行

我正在尝试在 Tensorflow 2 对象检测 api 中运行一些模型的训练。

我正在使用这个命令:

gcloud ai-platform jobs submit training segmentation_maskrcnn_`date +%m_%d_%Y_%H_%M_%S` \
    --runtime-version 2.1 \
    --python-version 3.7 \
    --job-dir=gs://${MODEL_DIR} \
    --package-path ./object_detection \
    --module-name object_detection.model_main_tf2 \
    --region us-central1 \
    --scale-tier CUSTOM \
    --master-machine-type n1-highcpu-32 \
    --master-accelerator count=4,type=nvidia-tesla-p100 \
    -- \
    --model_dir=gs://${MODEL_DIR} \
    --pipeline_config_path=gs://${PIPELINE_CONFIG_PATH}
Run Code Online (Sandbox Code Playgroud)

训练作业已成功提交,但当我在 AI 平台上查看提交的作业时,我发现它没有使用 GPU! 在此输入图像描述

另外,在查看我的训练作业日志时,我注意到在某些情况下它无法打开 cuda。它会这样说:

Could not load dynamic library 'libcudart.so.11.0'; dlerror: libcudart.so.11.0: cannot open shared object file: No such file or directory; LD_LIBRARY_PATH: /usr/local/cuda/extras/CUPTI/lib64:/usr/local/cuda/lib64:/usr/local/nvidia/lib64
Run Code Online (Sandbox Code Playgroud)

几个月前我正在使用 AI 平台进行训练,并且很成功。不知道现在有什么变化!事实上,对于我自己的设置来说,没有任何改变。

作为记录,我现在正在训练 Mask RCNN。几个月前,我训练了 Faster RCNN …

object-detection tensorflow object-detection-api gcp-ai-platform-training google-ai-platform

5
推荐指数
1
解决办法
399
查看次数