为巨大的文件加载数据infile(没有警告,没有错误,没有受影响的行)

Afs*_*ami 3 mysql csv file-io

我尝试了以下脚本:

LOAD DATA LOCAL INFILE 'myfile.csv'
    REPLACE INTO TABLE `mydb`.`mytable`
    CHARACTER SET latin1 FIELDS TERMINATED BY ','
    OPTIONALLY ENCLOSED BY '"' ESCAPED BY '"'
    LINES TERMINATED BY '\r\n'
    IGNORE 1 LINES (`field1`, `field1`, `field1`, `field1`, `field1`, `field1`);
Run Code Online (Sandbox Code Playgroud)

当我使用500K记录的文件时,它可以正常工作,但是当我尝试400万条记录的csv文件时,它会返回:

Query OK, 0 rows affected (2.79 sec) 
Records: 0  Deleted: 0  Skipped: 0  Warnings: 0
Run Code Online (Sandbox Code Playgroud)

当然,在2.70秒内不会添加任何内容!

我的RAM是4GB,我的输入文件(大文件)是370MB.

谁有人建议解决方案?

Phi*_*hil 5

大文件中的行结尾可能不是'\ r \n'.

LINES TERMINATED BY '\r\n'格式更改为'\n'.