我有一个大的CSV文件,我试图导入到MySQL (大约45 of,约1.5亿行,大多数列小,但一个可变长度的文本,可以达到KBs的大小)。我正在使用LOAD数据本地INFILE尝试并导入它,但是服务器总是在它完成之前超时我的连接。我已经尝试过修改全局连接超时变量来修复这个问题,但是它在超时之前已经有几个小时了。有其他方法可以导入这么大的数据库吗?还是我做错了什么?LOAD DATA LOCAL INFILE 'filenam
该方法将csv文件中的数千个数据上传到mysql .But中,需要大量的时间才能上传到mysql.But中,这是一种烦人的方法。$deleterecords = "TRUNCATE TABLE discount"; //empty the table of its current records
mysql_querymysql_query($import) or die(mysql_error());/
我有一个有300,000行的file.csv。许多行是带有重音字符的外国城市的名称。当我尝试在mysql中进行导入时,我得到了关于字段的警告,并且它在特殊字符的位置截断了字段。LOAD DATA LOCAL INFILE '/var/tmp/geoip/location.csv' INTO TABLE Geolocation2 FIELDS TERMINATED BY ','