我有一个应该包含所有顶级和二级域名的数据库.但我正在解析的提要包含很多子文件夹,我想删除包含任何%符号的任何行,但我很难弄清楚如何使用百分号作为字段我' d喜欢匹配,同时仍然使用LIKE功能.以下是我正在尝试使用的代码:
select FROM `001ProductList` WHERE programURL LIKE '%%%'
Run Code Online (Sandbox Code Playgroud)
以下是我想要匹配的示例:
www.site.com%3Ack-5941560-10463497?URL = HTTP%3A%2F%2Fwww.example.com%2Fproddetail.aspx%...
如果我遇到一个带有%符号的行,我想删除它.
我每个月都会看到来自俄罗斯和中国的数千个推荐来自以下域名,我尝试将下面的代码添加到我的.htaccess文件中,然后从我拥有的另一个域中测试它,但我似乎没有得到我期待得到的403 Forbidden消息.我错过了什么?
RewriteCond %{HTTP_REFERER} ^(www\.)?([a-z0-9-]+)\.social-buttons\.com$ [NC]
RewriteCond %{HTTP_REFERER} social-buttons\.com [NC]
RewriteCond %{HTTP_REFERER} googlsucks\.com [NC]
RewriteCond %{HTTP_REFERER} 4webmasters\.org [NC]
RewriteCond %{HTTP_REFERER} aliexpress\.com [NC]
RewriteCond %{HTTP_REFERER} best-seo-solution\.com [NC]
RewriteCond %{HTTP_REFERER} best-seo-offer\.com [NC]
RewriteCond %{HTTP_REFERER} buttons-for-website\.com [NC]
RewriteCond %{HTTP_REFERER} www\.myothertestdomain\.com [NC]
RewriteRule .* - [F]
Run Code Online (Sandbox Code Playgroud) 使用fgetcsv,我可以以某种方式做一个破坏性的读取,我读取和处理的行将被丢弃,所以如果我不通过第一遍的整个文件,我可以回来拿起我之前离开的地方the script timed out?
额外细节:
我从一个200mb .gz文件的供应商处获得每日产品.当我解压缩文件时,它变成1.5gb .csv,有近500,000行和20-25个字段.我需要将这些信息读入MySQL数据库,理想情况下是使用PHP,因此我可以安排CRON每天在我的网络托管服务提供商处运行脚本.
服务器上的硬超时由主机提供商设置为180秒,并且任何单个脚本的最大内存利用率限制为128mb.这些限制不能由我改变.
我的想法是使用fgetcsv函数从.csv中获取信息,但由于3分钟的超时,我期望必须在文件中进行多次传递,我当时认为删除文件会很好因为我处理它所以我不需要花费周期跳过已经在前一遍中处理过的行.