小编out*_*229的帖子

Python 中的密封/非密封包

在浏览 PyTorch 文档时,我遇到了这个词hermetic packages

torch.package 添加了对创建包含任意 PyTorch 代码的密封包的支持。这些包可以保存、共享、用于在以后或在不同的机器上加载和执行模型,甚至可以使用 torch::deploy 部署到生产环境中。

我不明白在这种情况下密封包是什么意思。

  • 有人可以解释是什么使包装密封?
  • 非密封包装会是什么样子?

通过对 Stack Overflow [1][2] 的一些搜索,这个术语似乎是软件世界中使用的通用术语。任何示例——甚至在 PyTorch/Python 世界之外——都有助于巩固我的理解。

谢谢!


[1]创建 Hermetic Maven 构建 [2] Bazel:jar 命令的密封使用?

python python-packaging pytorch

8
推荐指数
1
解决办法
92
查看次数

不同 CUDA 架构的 Pytorch 安装

我有一个 Dockerfile,它从源代码安装 PyTorch 库。

这是 Dockerfile 中的片段,它从 pytorch 源代码执行安装

RUN cd /tmp/ \
 && git clone https://github.com/pytorch/pytorch.git \
 && cd pytorch  \
 && git submodule sync && git submodule update --init --recursive \
 && sudo TORCH_CUDA_ARCH_LIST="6.0 6.1 7.0 7.5 8.0" python3 setup.py install

Run Code Online (Sandbox Code Playgroud)

我对这里发生的事情没有正确的理解,希望得到社区的一些意见:

  • 为什么不同的 CUDA 版本 PyTorch 需要不同的安装方式?
  • TORCH_CUDA_ARCH_LIST在这种情况下,它的作用是什么?
  • 如果我的机器有多个 CUDA 设置,这是否意味着我将在 Docker 容器中安装多个 PyTorch 版本(特定于每个 CUDA 设置)?
  • 如果我的机器没有上述 CUDA 设置(“6.0 6.1 7.0 7.5 8.0”),PyTorch 安装会失败吗?

docker pytorch

6
推荐指数
1
解决办法
8359
查看次数

用于模型托管的 AWS Sagemaker 与 ECS

我在 S3 存储桶中存储了预训练的模型工件。我想创建一个加载此模型并将其用于推理的服务。

我在 AWS 生态系统中工作,对使用 ECS 还是 Sagemaker 进行模型部署感到困惑?选择一个而不是另一个有哪些优点/缺点?

machine-learning amazon-web-services amazon-ecs amazon-sagemaker

2
推荐指数
1
解决办法
1847
查看次数