T. *_*rdy 3 amazon-web-services elasticsearch amazon-redshift
我正在尝试将多行数据批处理到 RedshiftINSERT查询中。为了保持高效,我想知道在需要开始新批次之前可以走的最大长度。如果有更好的方法来做到这一点,请告诉我。
编辑:我有点含糊。我正在尝试从 Elasticsearch 转到 Redshift。这会生成 JSON 格式,我将其转换为:INSERT INTO xxxx VALUES (a1, a2, a3), (b1, b2, b3), (c1, c2, c3)
Redshift 语句的最大长度为 16MB。请参阅 https://docs.aws.amazon.com/redshift/latest/dg/c_redshift-sql.html
如果您需要定期加载大量数据,首先将数据移动到 S3,然后使用 Redshift COPY 命令会更快。
| 归档时间: |
|
| 查看次数: |
3965 次 |
| 最近记录: |