小编mim*_*ain的帖子

为什么在 Pi 的整数倍处计算 torch.sin() 和 numpy.sin() 的数量级?

为什么 Pytorch 和 Numpy 的三角函数在以 Pi 的整数倍计算时会产生如此巨大的数量级差异?

>>> torch.sin(torch.ones(1)*2*np.pi)
tensor([1.7485e-07])
>>> np.sin(np.ones(1)*2*np.pi)
array([-2.4492936e-16])
Run Code Online (Sandbox Code Playgroud)

python precision numpy pytorch tensor

2
推荐指数
1
解决办法
166
查看次数

如何将 SLURM 脚本的配置参数保存/记录到输出文件?

我对 HPC 和 SLURM 尤其是新手。下面是我用来运行 python 脚本的示例代码:

#!/bin/bash

# Slurm submission script, serial job

#SBATCH --time 48:00:00
#SBATCH --mem 0
#SBATCH --mail-type ALL
#SBATCH --partition gpu_v100
#SBATCH --gres gpu:4
#SBATCH --nodes 4
#SBATCH --ntasks-per-node=4


#SBATCH --output R-%x.%j.out
#SBATCH --error R-%x.%j.err

export NCCL_DEBUG=INFO
export PYTHONFAULTHANDLER=1

module load python3-DL/torch/1.6.0-cuda10.1

srun python3 contrastive_module.py \
      --gpus 4 \
      --max_epochs 1024 \
      --batch_size 256 \
      --num_nodes 4 \
      --num_workers 8 \

Run Code Online (Sandbox Code Playgroud)

现在,每次我使用它运行此脚本时,sbatch run.sl它都会生成两个 .err 和 .out 文件,我只能将“run.sl”文件名和作业 ID 编码到这两个文件名中。但是如何保存我在上面的脚本中设置的所有参数的副本,无论是 slurm 配置还是与作业 ID 以及生成的 …

hpc slurm

2
推荐指数
1
解决办法
337
查看次数

标签 统计

hpc ×1

numpy ×1

precision ×1

python ×1

pytorch ×1

slurm ×1

tensor ×1