我是处理大型数据集的新手,也是 google colab 的新手。我有一个 62 GB 的数据集,我将其压缩并上传到 google colab 的文件部分。
上传之前,它有 68 GB 可用空间,因此我无法上传 zip 文件并解压缩它,我没有足够的内存。任何人都可以帮助我在 google colab 或任何平台上处理这个数据集。我目前是一名学生,没有太多钱购买更好的内存空间。
非常感谢。
python memory cloud dataset google-colaboratory
cloud ×1
dataset ×1
google-colaboratory ×1
memory ×1
python ×1