小编use*_*176的帖子

如何使用 Rails 最好地导入和处理非常大的 csv 文件

我正在构建一个使用 Heroku 部署的 Rails 应用程序,我需要能够导入和处理大型 csv 文件(5000 多行)。

使用内置 ruby​​ csv 解析器在控制器中执行此操作需要 30 秒以上,并导致 Heroku dyno 超时

我正在考虑将 csv 放入数据库,然后使用elasto_job对其进行处理,但这种方法限制在 4200 多行。

我正在使用 mysql 和 longtext 作为包含文件的列,因此数据库应该能够处理它

对于这个用例有什么想法吗?

ruby mysql ruby-on-rails heroku delayed-job

2
推荐指数
1
解决办法
2841
查看次数

标签 统计

delayed-job ×1

heroku ×1

mysql ×1

ruby ×1

ruby-on-rails ×1