使用Python获取Wikipedia文章

dkp*_*dkp 39 python user-agent wikipedia urllib2 http-status-code-403

我尝试使用Python的urllib获取维基百科文章:

f = urllib.urlopen("http://en.wikipedia.org/w/index.php?title=Albert_Einstein&printable=yes")           
s = f.read()
f.close()
Run Code Online (Sandbox Code Playgroud)

然而,而不是HTML页面,我得到以下响应:错误 - 维基媒体基金会:

Request: GET http://en.wikipedia.org/w/index.php?title=Albert_Einstein&printable=yes, from 192.35.17.11 via knsq1.knams.wikimedia.org (squid/2.6.STABLE21) to ()
Error: ERR_ACCESS_DENIED, errno [No Error] at Tue, 23 Sep 2008 09:09:08 GMT 
Run Code Online (Sandbox Code Playgroud)

维基百科似乎阻止了不是来自标准浏览器的请求.

有谁知道如何解决这个问题?

Flo*_*sch 51

您需要使用在python std库中取代urlliburllib2来更改用户代理.

直接来自例子

import urllib2
opener = urllib2.build_opener()
opener.addheaders = [('User-agent', 'Mozilla/5.0')]
infile = opener.open('http://en.wikipedia.org/w/index.php?title=Albert_Einstein&printable=yes')
page = infile.read()
Run Code Online (Sandbox Code Playgroud)

  • 维基百科试图阻止屏幕抓取器的原因.当有更简单的方法来获取文章内容时,他们的服务器必须做很多工作才能将wikicode转换为HTML.http://en.wikipedia.org/wiki/Wikipedia:Database_download#Please_do_not_use_a_web_crawler (6认同)
  • 您不应该尝试使用像“Mozilla/5.0”这样的用户代理来模拟浏览器。相反,[您应该使用包含一些联系信息的信息丰富的用户代理](http://meta.wikimedia.org/wiki/User-Agent_policy)。 (2认同)

Han*_*rén 36

它不是特定问题的解决方案.但是,您可能需要使用mwclient库(http://botwiki.sno.cc/wiki/Python:Mwclient).那会容易得多.特别是因为您将直接获取文章内容,从而无需解析html.

我自己用它来做两个项目,效果很好.

  • 由于mwclient使用mediawiki api,因此不需要解析内容.我猜测原始海报想要内容,而不是原始的html菜单和所有. (17认同)
  • 使用第三方库可以在几行代码中使用buildin库轻松完成,这不是一个好建议. (4认同)

sli*_*cki 15

您应该考虑使用他们的高级API,而不是试图欺骗维基百科.