使用 Selenium Python 解析 HTML 并读取 HTML 表格

d84*_*nj4 5 python selenium beautifulsoup web-scraping rselenium

我正在将我的一些网络抓取代码从 R 转换为 Python(我无法让 geckodriver 与 R 一起工作,但它可以与 Python 一起工作)。无论如何,我试图了解如何使用 Python 解析和读取 HTML 表。快速背景,这是我的 R 代码:

doc <- htmlParse(remDr$getPageSource()[[1]],ignoreBlanks=TRUE, replaceEntities = FALSE, trim=TRUE, encoding="UTF-8")

WebElem <- readHTMLTable(doc, stringsAsFactors = FALSE)[[7]]
Run Code Online (Sandbox Code Playgroud)

我会将 HTML 页面解析为 doc 对象。然后我会从 开始doc[[1]],然后遍历更高的数字,直到看到我想要的数据。在这种情况下,我doc[[7]]看到了我想要的数据。然后我将读取该 HTML 表并将其分配给 WebElem 对象。最终我会把它变成一个数据框并使用它。

所以我在 Python 中所做的是这样的:

html = None
doc = None
html = driver.page_source
doc = BeautifulSoup(html)
Run Code Online (Sandbox Code Playgroud)

然后我开始玩,doc.get_text但我真的不知道如何获得我想看到的数据。我想看到的数据就像一个 10x10 的矩阵。当我使用 R 时,我只会使用doc[[7]]并且该矩阵几乎处于完美的结构中,我可以将其转换为数据帧。但是,我似乎无法用 Python 做到这一点。任何建议将不胜感激。

更新:

我已经能够使用 Python 获取我想要的数据——我关注了这个博客,用 Python 创建了一个数据框:Python Web-Scraping。这是我们在该博客中抓取的网站:最受欢迎的狗品种。在该博文中,您必须按自己的方式处理元素,创建一个字典,遍历表的每一行并将数据存储在每一列中,然后您就可以创建一个数据框。

使用 R,我必须编写的唯一代码是:

doc <- htmlParse(remDr$getPageSource()[[1]],ignoreBlanks=TRUE, replaceEntities = FALSE, trim=TRUE, encoding="UTF-8")

df <- as.data.frame(readHTMLTable(doc, stringsAsFactors = FALSE)

就这样,我有一个非常漂亮的数据框,我只需要调整列名和数据类型——它看起来像这样,代码如下:

NULL.V1 NULL.V2 NULL.V3 NULL.V4 1 BREED 2015 2014 2013 2 Retrievers (Labrador) 1 1 1 3 German Shepherd Dogs 2 2 2 4 Retrievers (Golden) 3 3 3 5 Bulldogs 4 4 5 6 Beagles 5 5 4 7 French Bulldogs 6 9 11 8 Yorkshire Terriers 7 6 6 9 Poodles 8 7 8 10 Rottweilers 9 10 9

Python 中是否没有可用的东西来使这更简单一些,或者这只是在 R 中更简单,因为 R 更适合于数据帧(至少在我看来是这样,但我可能是错的)?

d84*_*nj4 12

好的,经过一番深入研究后,我觉得我找到了很好的解决方案 - 与 R 匹配。如果您正在查看上面链接中提供的 HTML,Dog Breeds,并且您为该链接运行了网络驱动程序,您可以运行以下代码:

tbl = driver.find_element_by_xpath("//html/body/main/article/section[2]/div/article/table").get_attribute('outerHTML')

df = pd.read_html(tbl)

然后你只需要几行代码就可以看到一个非常漂亮的数据框:

In [145]: df Out[145]: [ 0 1 2 3 0 BREED 2015 2014 2013.0 1 Retrievers (Labrador) 1 1 1.0 2 German Shepherd Dogs 2 2 2.0 3 Retrievers (Golden) 3 3 3.0 4 Bulldogs 4 4 5.0 5 Beagles 5 5 4.0

我觉得这比处理标签、创建 dict 以及按照博客建议的遍历每一行数据要容易得多。这可能不是最正确的做事方式,我是 Python 新手,但它可以快速完成工作。我希望这可以帮助一些网络爬虫。