相关疑难解决方法(0)

优化大规模MySQL INSERT

我有一个需要运行每日脚本的应用程序; 每日脚本包括下载包含1,000,000行的CSV文件,并将这些行插入表中.

我在Dreamhost中托管我的应用程序.我创建了一个遍历所有CSV行的while循环,并为每个行执行INSERT查询.问题是我得到了"500内部服务器错误".即使我将其分成1000个文件,每个1000行,我也不能在同一个循环中插入超过40或5万行.

有什么办法可以优化输入吗?我也在考虑使用专用服务器; 你怎么看?

谢谢!

佩德罗

php mysql sql bulkinsert

1
推荐指数
2
解决办法
7883
查看次数

标签 统计

bulkinsert ×1

mysql ×1

php ×1

sql ×1