我想在mysql表中上传一个大的csv文件大约10,000,000条记录,其中也包含相同或更多的no.记录和一些重复记录.我尝试了本地数据,但它也花费了更多时间.如何在不等待很长时间的情况下解决这个问题.如果它无法解决,那么我怎样才能用AJAX发送一些记录并一次处理它,直到整个csv上传/ proccessed为止.
我在 3 个代理集群上使用 kafka 版本 0.11.0.2,并将新磁盘附加到所有代理。不知何故,在代理 2 上,重新启动后我开始收到以下错误(用 XXXXX 替换实际路径)
Found a corrupted index file due to requirement failed: Corrupt index found, index file (/XXXXX/XXXXX/00000000000000000000.index) has non-zero size but the last offset is 0 which is no larger than the base offset 0.}. deleting /XXXXX/XXXXX/00000000000000000000.timeindex, /XXXXX/XXXXX/00000000000000000000.index, and /XXXXX/XXXXX/00000000000000000000.txnindex and rebuilding index... (kafka.log.Log)
Run Code Online (Sandbox Code Playgroud)
我搜索并发现这是由于不干净的关闭而发生的,解决方法是删除 10MB 的索引文件,然后使用以下命令进行清理
find /XXXXX -size 10485760c -name *.index -delete
Run Code Online (Sandbox Code Playgroud)
自从这次运行之后,我开始出现以下错误,并且代理仍然被突然杀死。
ERROR Could not find offset index file corresponding to log file /XXXXX/XXXXX/00000000000000000000.log, rebuilding index... (kafka.log.Log)
Run Code Online (Sandbox Code Playgroud)
如何解决这个问题?
我是lua的新手.我需要将以下字符串转换为lua表.我怎么能这样做?
str = "{a=1, b=2, c={d=3,e=4} }"
Run Code Online (Sandbox Code Playgroud)
我想将此字符串转换为lua表,以便我可以像这样访问它:
print(str['a']) -- Output : 1
print(str['c']['d']) -- Output : 3
Run Code Online (Sandbox Code Playgroud)