abd*_*he1 6 python sqlalchemy dataframe pandas snowflake-cloud-data-platform
数据框很大(7-8百万行)。尝试使用chunksize = 5000的to_sql,但从未完成。
使用,
from sqlalchemy import create_engine
from snowflake.sqlalchemy import URL
df.to_sql(snowflake_table , engine, if_exists='replace', index=False, index_label=None, chunksize=20000)
Run Code Online (Sandbox Code Playgroud)
从熊猫DF将数据存储到SF的其他最佳解决方案还有哪些?还是我在这里做错了什么?DF的大小通常为7-10百万行。
ilja-everila 指出的最佳方法是 \xe2\x80\x9ccopy into...\xe2\x80\x9d 因为 SF 要求在转换之前将 csv 暂存在云上,我对此犹豫不决,但似乎是这样唯一的选择是在 5-10 分钟内完成 650 万条记录。
\n| 归档时间: |
|
| 查看次数: |
2500 次 |
| 最近记录: |