小编spi*_*tor的帖子

有没有办法通过 slurm 找出节点上有多少个 GPU?

我正在使用SLURM工作负载管理器,我们有带有 4 个 GPU 的节点。

节点有几种可能的状态:

  • 已分配(所有计算资源均已分配)
  • 混合(分配部分资源)
  • 空闲(没有分配任何计算资源)

确定资源利用率的规范方法是sinfo命令 - https://slurm.schedmd.com/sinfo.html。有几个标志和选项。然而,似乎他们都无法知道给定节点上当前分配了多少资源。

比如说,我想知道对于该mixed州来说,是否有 1,2 个或 3 个 GPU 可用。或者这些信息是保密的并且由于某种原因用户无法获得?

resources slurm server

9
推荐指数
1
解决办法
7892
查看次数

PyTorch 中的“inplace=True”激活是否仅对推理模式有意义?

根据PyTorch论坛的讨论:

\n\n

的目的是就地inplace=True修改输入,而不用此操作的结果为附加张量分配内存。

\n

这允许更有效地使用内存,但禁止进行向后传递的可能性,至少在操作减少信息量的情况下是如此。并且反向传播算法需要保存中间激活才能更新权重。

\n

是否可以说,只有在模型已经训练好并且不想再修改它的情况下才应该分层启用此模式?

\n

python activation-function pytorch

8
推荐指数
1
解决办法
8620
查看次数

如何将PyTorch中的torchscript模型转换为普通的nn.Module?

我通过以下方式加载torchscript模型:

model = torch.jit.load("model.pt").to(device)
Run Code Online (Sandbox Code Playgroud)

该模型的子模块被标识为RecursiveScriptModule。我想微调上传的权重,为了使其更简单并将它们转换为torch.float32最好将所有这些东西转换为普通的PyTorch nn.Module

在官方文档https://pytorch.org/docs/stable/jit.html中,告知如何转换nn.Moduletorchscript,但我没有找到任何以相反方向执行此操作的示例。有没有办法做到这一点?

PS这里给出了加载模型预训练模型的示例: https://github.com/openai/CLIP/blob/main/notebooks/Interacting_with_CLIP.ipynb

python pytorch torchscript

7
推荐指数
1
解决办法
6077
查看次数

如何禁用 PyTorch-Lightning 记录器的日志记录?

PyTorch-Lightning 中的记录器打印有关要训练(或评估)的模型以及训练过程中的进度的信息,

但是,就我而言,我想隐藏记录器中的所有消息,以免淹没Jupyter Notebook.

我在官方文档页面上查看了 Trainer 类的 API https://pytorch-lightning.readthedocs.io/en/latest/common/trainer.html#trainer-flags,似乎没有选择关闭来自记录器的消息。

有一个参数log_every_n_steps可以设置为很大的值,但尽管如此,每个时期后的记录结果都会显示。

如何禁用日志记录?

python logging pytorch-lightning

7
推荐指数
1
解决办法
9189
查看次数

C++ 中执行“mkdir -p”的现代方法是什么?

C++17标准引入了该<filesystem>库,它提供了一些对文件系统、路径、文件和目录执行操作的设施。为了创建新目录,可以使用 create_directory.

然而,如果父目录不存在,这个函数就会失败,因为它相当于mkdir没有标志的UNIX。无论是否想要创建除给定参数之外的所有父目录,都可以mkdir使用 flag运行-p。但C++17的函数不提供添加标志的选项。

是否还有另一种方法可以以 C++ 风格同时创建整套目录?

在以下命令的帮助下有一个 C 风格选项<cstdlib>

std::system("mkdir -p NEW_DIRECTORY")
Run Code Online (Sandbox Code Playgroud)

但是,如果NEW_DIRECTORY提供为string,则 then before 必须执行以下操作:

std::string mkdir_s = "mkdir -p "s + NEW_DIRECTORY;                                     
std::system(mkdir_s.c_str());
Run Code Online (Sandbox Code Playgroud)

c++ filesystems mkdir

3
推荐指数
1
解决办法
962
查看次数

有没有办法确定 PyTorch 模型是在 cpu 上还是在设备上?

我想弄清楚模型是否PyTorch处于打开状态cpu,或者cuda是为了根据模型初始化某些其他Torch.Tensor变量Torch.cuda.Tensor

然而,查看dir()函数的输出,我只看到.cpu(), .cuda(),to()将模型放置在 to 中指定的设备、GPU 或其他设备上的方法。对于PyTorch张量来说,有is_cuda属性,但整个模型没有类似物。

是否有某种方法可以为模型推断出这一点,或者需要参考特定的重量?

python gpu pytorch

3
推荐指数
1
解决办法
3705
查看次数