小编Ben*_*Ben的帖子

构建 1,000M 行 MySQL 表

这个问题是从Stack Overflow转发的根据评论中的建议发布的,为重复道歉。

问题

问题 1:随着数据库表的大小变大,我如何调整 MySQL 以提高 LOAD DATA INFILE 调用的速度?

问题 2:使用一组计算机加载不同的 csv 文件,是提高性能还是杀死它?(这是我明天使用加载数据和批量插入的基准测试任务)

目标

我们正在为图像搜索尝试不同的特征检测器和聚类参数组合,因此我们需要能够及时构建大型数据库。

机器信息

这台机器有 256 gig 的 ram,如果有办法通过分发数据库来改善创建时间,还有另外 2 台具有相同数量的 ram 的机器吗?

表模式

表架构看起来像

+---------------+------------------+------+-----+---------+----------------+
| Field         | Type             | Null | Key | Default | Extra          |
+---------------+------------------+------+-----+---------+----------------+
| match_index   | int(10) unsigned | NO   | PRI | NULL    |                |
| cluster_index | int(10) unsigned | NO   | PRI | NULL    |                |
| id            | int(11)          | NO   | …
Run Code Online (Sandbox Code Playgroud)

mysql files optimization performance-tuning

18
推荐指数
1
解决办法
8991
查看次数

标签 统计

files ×1

mysql ×1

optimization ×1

performance-tuning ×1