Google Colab存储

Fer*_*hat 1 storage google-colaboratory google-cloud-tpu

有人知道运行Google Colab的存储限制吗?上传22gb的zip文件,然后尝试解压缩后,似乎空间不足,建议使用<〜40gb的存储空间。至少这是我运行TPU实例的经验。

Der*_*nes 11

是的,Colab 笔记本本地存储现在大约是 40 GiB。查看确切值的一种方法(在 Python 3 中):

import subprocess
p = subprocess.Popen('df -h', shell=True, stdout=subprocess.PIPE)
print(str(p.communicate()[0], 'utf-8'))
Run Code Online (Sandbox Code Playgroud)

但是:对于大量数据,本地存储不是提供 TPU 的最佳方式,TPU 不直接连接到运行笔记本的机器。相反,请考虑将大型数据集存储在 GCP 存储中,并从 Colab 笔记本中获取该数据。(此外,Colab 本地存储的数量可能会发生变化,而 Colab 笔记本本身将在几个小时后过期,从而带走本地存储。)

看看规范的 TPU Colab 笔记本。底部是一些后续步骤,其中包括使用 TPU 搜索莎士比亚的链接。该笔记本中有以下代码片段,它演示了对 Colab TPU 的 GCP 身份验证。它看起来像这样:

from google.colab import auth
auth.authenticate_user()

if 'COLAB_TPU_ADDR' in os.environ:
  TF_MASTER = 'grpc://{}'.format(os.environ['COLAB_TPU_ADDR'])

  # Upload credentials to TPU.
  with tf.Session(TF_MASTER) as sess:    
    with open('/content/adc.json', 'r') as f:
      auth_info = json.load(f)
    tf.contrib.cloud.configure_gcs(sess, credentials=auth_info)
  # Now credentials are set for all future sessions on this TPU.
else:
  TF_MASTER=''
Run Code Online (Sandbox Code Playgroud)


小智 5

当前,colab中的本地存储量取决于所选的硬件加速器运行时类型:

# Hardware accelerator none
!df -h .
Filesystem      Size  Used Avail Use% Mounted on
overlay          49G   22G   26G  46% /

# Hardware accelerator GPU
!df -h .
Filesystem      Size  Used Avail Use% Mounted on
overlay         359G   23G  318G   7% /

# Hardware accelerator TPU
!df -h .
Filesystem      Size  Used Avail Use% Mounted on
overlay          49G   22G   26G  46% /

Run Code Online (Sandbox Code Playgroud)

即使您不需要GPU,切换到该运行时类型也将为您提供额外的310Gb存储空间。

  • 谢谢你的更新。是的,仅使用 GPU 来获得额外的存储空间是有意义的。 (2认同)
  • 今天,我得到了 108GB 69GB 108GB。 (2认同)