在 AWS Sagemaker 中使用 python pandas 从 S3 存储桶中读取大型 csv

Dil*_*ody 7 python csv amazon-s3 amazon-sagemaker

我正在尝试从 S3 存储桶将大型 CSV(~5GB)加载到 Pandas 中。

以下是我为 1.4 kb 的小型 CSV 尝试的代码:

client = boto3.client('s3') 
obj = client.get_object(Bucket='grocery', Key='stores.csv')
body = obj['Body']
csv_string = body.read().decode('utf-8')
df = pd.read_csv(StringIO(csv_string))
Run Code Online (Sandbox Code Playgroud)

这适用于小型 CSV,但我无法通过此实现将 5GB csv 加载到 Pandas 数据帧的要求(可能是由于 StringIO 加载 csv 时的内存限制)。

我也试过下面的代码

s3 = boto3.client('s3')
obj = s3.get_object(Bucket='bucket', Key='key')
df = pd.read_csv(obj['Body'])
Run Code Online (Sandbox Code Playgroud)

但这给出了以下错误。

ValueError: Invalid file path or buffer object type: <class 'botocore.response.StreamingBody'>
Run Code Online (Sandbox Code Playgroud)

非常感谢解决此错误的任何帮助。

小智 9

我知道这已经很晚了,但这是一个答案:

import boto3
bucket='sagemaker-dileepa' # Or whatever you called your bucket
data_key = 'data/stores.csv' # Where the file is within your bucket
data_location = 's3://{}/{}'.format(bucket, data_key)
df = pd.read_csv(data_location)
Run Code Online (Sandbox Code Playgroud)

  • 您确定不需要另一个导入吗?我尝试了上述操作并收到错误消息“ImportError:处理 s3 文件需要 s3fs 库”。 (2认同)

归档时间:

查看次数:

11826 次

最近记录:

5 年 前