运行 pytorch/xla 时缺少 XLA 配置

fly*_*ain 6 google-cloud-platform pytorch tpu

我正在尝试使用 Pytorch/XLA 运行 GCP TPU,我使用的是带有 debian-9-torch-xla-v20200818 映像的 VM,我启动了 TPU 并使用 ctpu 状态检查它是否正在运行,这表明 CPU 和 TPU 都在运行,然后我激活 torch-xla-nightly 环境,但是当我尝试调用这个简单的代码时:

import torch
import torch_xla
import torch_xla.core.xla_model as xm

dev = xm.xla_device()
t1 = torch.ones(3, 3, device = dev)
print(t1)
Run Code Online (Sandbox Code Playgroud)

出现此错误:

Traceback (most recent call last):
File "<stdin>", line 1, in <module>
File "/anaconda3/envs/torch-xla-nightly/lib/python3.6/site-packages/torch_xla/core/xla_model.py", line 231, in xla_device
devkind=devkind if devkind is not None else None)
File "/anaconda3/envs/torch-xla-nightly/lib/python3.6/site-packages/torch_xla/core/xla_model.py", line 136, in get_xla_supported_devices
 xla_devices = _DEVICES.value
File "/anaconda3/envs/torch-xla-nightly/lib/python3.6/site-packages/torch_xla/utils/utils.py", line 32, in value
self._value = self._gen_fn()
File "/anaconda3/envs/torch-xla-nightly/lib/python3.6/site-packages/torch_xla/core/xla_model.py", line 18, in <lambda>
_DEVICES = xu.LazyProperty(lambda: torch_xla._XLAC._xla_get_devices())
RuntimeError: tensorflow/compiler/xla/xla_client/computation_client.cc:274 : Missing XLA configuration
Run Code Online (Sandbox Code Playgroud)

我尝试了一切,但似乎没有任何效果。

小智 5

看看这个链接,因为它似乎与这个问题有关。也许您没有设置 XRT_TPU_CONFIG: (vm)$ export XRT_TPU_CONFIG="tpu_worker;0;$TPU_IP_ADDRESS:8470" 按照此处的说明操作,您应该没问题。