我打开了一个 PHP 脚本并通过 curl 解析了许多 RSS 提要。尝试读取其中之一,CURLOPT_STDERR
返回以下错误:
* Expire in 0 ms for 6 (transfer 0x558820d06dc0)
* Expire in 1 ms for 1 (transfer 0x558820d06dc0)
* Expire in 0 ms for 1 (transfer 0x558820d06dc0)
* Expire in 1 ms for 1 (transfer 0x558820d06dc0)
* Expire in 0 ms for 1 (transfer 0x558820d06dc0)
* Expire in 0 ms for 1 (transfer 0x558820d06dc0)
* Expire in 1 ms for 1 (transfer 0x558820d06dc0)
* Expire in 0 ms for 1 (transfer …
Run Code Online (Sandbox Code Playgroud) 我花了 4 个多小时试图找到我的 php 代码的正则表达式模式,但没有运气。
我有一个带有 html 代码的字符串。它有很多网址格式,例如:
example.com
http://example.com
http://www.example.com
http://example.com/some.php
http://example.com/some.php?var1=1
http://example.com/some.php?var1=1&var2=2
etc.
Run Code Online (Sandbox Code Playgroud)
我有以下 php 代码部分工作:
preg_match_all('/\b(?:(?:https?|ftp|file):\/\/|www\.|ftp\.)[-A-Z0-9+&@#\/%=~_|$?!:,.]*[A-Z0-9+&@#\/%=~_|$]/i', $content, $result, PREG_PATTERN_ORDER);
Run Code Online (Sandbox Code Playgroud)
我唯一需要的是还使用“&”捕获具有多个查询字符串的 url 我得到它们,但不是完整的,我只收到如下内容:
http://example.com/asdad.php?var1=1&
Run Code Online (Sandbox Code Playgroud)
左边丢失了。
有人可以帮我将丢失的部分添加到模式中吗?
非常感谢。
我正在将许多每日 Apache 日志文件读入 R。这些文件都被命名为“logfile_”加上它们的日期,例如logfile_2019-12-30
. 这是我读取文件的方式:
path <- "/path/to/logs/"
beginning <- as.Date("2019-12-01", format="%Y-%m-%d")
ending <- as.Date("2019-12-31", format="%Y-%m-%d")
d <- beginning
dat <- data.frame()
while (d < ending)
{
dat <- rbind(dat, read.table(paste0(path, "logfile_", d), stringsAsFactors = FALSE))
d <- d + 1
}
Run Code Online (Sandbox Code Playgroud)
一个月(大约有 100 万行日志条目)while
-loop 执行大约需要四分钟。我想阅读和处理几年的文件,但不想等待几个小时。
如何更有效、更快地读取文件?