我对使用 R 和 xml 进行抓取非常陌生,我有一个关于保存和加载数据集的问题。
我使用如下代码抓取了一个相当大的数据集
data<-list()
for(i in page[1:10]){
pages<-read_html(paste0("http://www.gbig.org/buildings/", i))
nodes<-html_nodes(pages, '.badge-info .cert-badge , .event ,
.date , .media-heading a , .truncated , .location , .buildings-type')
data[[i]] <-nodes
}
Run Code Online (Sandbox Code Playgroud)
我以为我可以保存数据并再次加载以备将来使用
save(data, file="trials.RData")
Run Code Online (Sandbox Code Playgroud)
当我加载它并尝试再次使用它时,我收到一条错误消息。我做错了什么?保存和加载 xml 节点的最佳方法是什么?
{xml_nodeset (10)}
Error in node_write_character(x$node, options = options, encoding = encoding) :
external pointer is not valid
Run Code Online (Sandbox Code Playgroud)
编辑
我尝试的加载命令是:
load("trials.RData")
Run Code Online (Sandbox Code Playgroud)
谢谢
它不起作用的原因是节点是“xptr”或“外部指针”,并且当它们保存到 R 数据文件时不会被序列化。xml2R 文档中的包存储库和其他各种地方确实有这方面的警告指导,但没有人再 RTFM 了。#叹
解决您的问题并阻止自己在将来再次对站点进行 DoSing 的一种方法是从节点中提取数据 vs 尝试保存原始节点并保留源页面的副本,以便您可以抓取该页面 vs 返回到网站并浪费他们的带宽(再次)。
我们需要一些包:
library(rvest)
library(httr)
library(tidyverse)
Run Code Online (Sandbox Code Playgroud)
您应该始终从查看网站robots.txt和服务条款/条款和条件开始。此站点有robots.txt但没有 ToS/T&C,因此我们将查看它们是否允许您尝试执行的操作:
robotstxt::get_robotstxt(urltools::domain("http://www.gbig.org/buildings/")) %>%
cat()
## # See http://www.robotstxt.org/wc/norobots.html for documentation on how to use the robots.txt file
## #
## # To ban all spiders from the entire site uncomment the next two lines:
## # User-Agent: *
## # Disallow: /
## User-Agent: *
## Crawl-delay: 10
## Disallow: /beta_invites
## Disallow: /admin
## Disallow: /search
## Disallow: /green_schools
## Disallow: /api
## Disallow: /places/8194/activities
## Disallow: /places/935/activities
Run Code Online (Sandbox Code Playgroud)
因此,我们需要在页面请求之间使用 10 秒的爬网延迟,并且您最好希望您没有通过使用/search或/api路径获取该页面列表而违反技术控制。
此外,我们稍后将需要它,因为我们将采用另一种方法来获取您想要的节点:
c(
".badge-info .cert-badge", ".event", ".date" , ".media-heading a",
".truncated", ".location" , ".buildings-type"
) -> target_nodes
Run Code Online (Sandbox Code Playgroud)
而且,我们也需要稍后清理^^
clean_node_names <- function(x) {
x <- tolower(x)
x <- gsub("[[:punct:][:space:]]+", "_", x)
x <- gsub("_+", "_", x)
x <- gsub("(^_|_$)", "", x)
x <- make.unique(x, sep = "_")
x
}
Run Code Online (Sandbox Code Playgroud)
对于此示例 --- 因为您没有提供任何数据 --- 我们将需要一些 URL,因此我们将从该页面中获取前 12 个:
pg <- read_html("http://www.gbig.org/buildings/")
html_nodes(pg, "a.cell") %>%
html_attr("href") %>%
sprintf("http://www.gbig.org%s", .) -> building_urls
Run Code Online (Sandbox Code Playgroud)
现在,设置一个进度条,因为页面之间的 10 秒延迟会使这看起来很慢。我意识到您可能会,而许多其他人不太可能遵守robots.txt规则,但这并不意味着您不应该这样做。
pb <- progress_estimated(length(building_urls))
Run Code Online (Sandbox Code Playgroud)
最后,遍历这些 URL 并:
list()柱子注意:您可以制作一个更好的数据框,并且比这种粉碎和抓取方法更多的个人/故意节点提取。
map_df(building_urls, ~{
pb$tick()$print()
Sys.sleep(10)
x <- read_html(.x)
map(target_nodes, html_nodes, x=x) %>%
map(html_text) %>%
set_names(clean_node_names(target_nodes)) %>%
map(~list(.x)) %>%
as_data_frame() -> tmpdf
tmpdf$src_html <- as.character(pg)
tmpdf
}) -> xdf
Run Code Online (Sandbox Code Playgroud)
而且,经过一段时间的等待:
glimpse(xdf)
## Observations: 12
## Variables: 8
## $ badge_info_cert_badge <list> [<"Case Study", "Case Study", "Case Stu...
## $ event <list> [<"Whole Building Design Guide Case Stu...
## $ date <list> [<"06/20/2014", "08/13/2013", "08/13/20...
## $ media_heading_a <list> [<"The Mutual Building Christman Compa...
## $ truncated <list> ["\nThe Christman Building LEED-EB, The...
## $ location <list> ["208 N Capitol Ave, Lansing, MI, USA",...
## $ buildings_type <list> ["\n\nThe Christman Building\n", "\n\nS...
## $ src_html <chr> "<!DOCTYPE html>\n<html lang=\"en\">\n<h...
Run Code Online (Sandbox Code Playgroud)
由于我们存储src_html您可以处理这与read_html()如果你需要从每个建筑更多/不同的信息。
注意:有一种替代方法使用xml2::xml_serialize():
pb <- progress_estimated(length(building_urls))
map(building_urls, ~{
pb$tick()$print()
Sys.sleep(10)
read_html(.x) %>%
html_nodes(
'.badge-info .cert-badge , .event , .date , .media-heading a , .truncated , .location , .buildings-type'
) %>%
xml_serialize(NULL) -> nodes
nodes
}) -> bldg_lst
Run Code Online (Sandbox Code Playgroud)
现在,它是一个原始向量列表:
str(bldg_lst)
## List of 12
## $ : raw [1:4273] 58 0a 00 00 ...
## $ : raw [1:4027] 58 0a 00 00 ...
## $ : raw [1:3164] 58 0a 00 00 ...
## $ : raw [1:7718] 58 0a 00 00 ...
## $ : raw [1:2996] 58 0a 00 00 ...
## $ : raw [1:2908] 58 0a 00 00 ...
## $ : raw [1:4506] 58 0a 00 00 ...
## $ : raw [1:4127] 58 0a 00 00 ...
## $ : raw [1:2982] 58 0a 00 00 ...
## $ : raw [1:3034] 58 0a 00 00 ...
## $ : raw [1:1800] 58 0a 00 00 ...
## $ : raw [1:1877] 58 0a 00 00 ...
Run Code Online (Sandbox Code Playgroud)
这样你就可以省了。
当读回时,你会这样做:
map(bldg_lst, xml_unserialize)
## [[1]]
## {xml_nodeset (65)}
## [1] <h2 class="buildings-page-title buildings-type"><img alt="Building" ...
## [2] <p class="location">208 N Capitol Ave, Lansing, MI, USA</p>
## ...
##
## [[2]]
## {xml_nodeset (62)}
## [1] <h2 class="buildings-page-title buildings-type"><img alt="Building" ...
## [2] <p class="location">3825 Wisconsin Ave NW, Washington, DC, USA</p>
## ...
##
## [[3]]
## {xml_nodeset (54)}
## [1] <h2 class="buildings-page-title buildings-type"><img alt="Building" ...
## [2] <p class="location"> San Francisco, CA, USA</p>
## ...
##
## [[4]]
## {xml_nodeset (127)}
## [1] <h2 class="buildings-page-title buildings-type"><img alt="Building" ...
## [2] <p class="location"> Washington, DC, USA</p>
## ...
##
## [[5]]
## {xml_nodeset (50)}
## [1] <h2 class="buildings-page-title buildings-type"><img alt="Building" ...
## [2] <p class="location">4940 N 118th St, Omaha, NE, USA</p>
## ...
##
## [[6]]
## {xml_nodeset (47)}
## [1] <h2 class="buildings-page-title buildings-type"><img alt="Building" ...
## [2] <p class="location"> Dallas, TX, USA</p>
## ...
##
### (etc)
Run Code Online (Sandbox Code Playgroud)
我仍然认为第一个建议的方法更好。
| 归档时间: |
|
| 查看次数: |
1207 次 |
| 最近记录: |