Zak*_*kum 13 python urllib2 http-request
我尝试用urllib2执行一个简单的POST请求.但是服务器响应表明它收到一个简单的GET.我检查了传出请求的类型,但它设置为POST.
为了检查服务器是否像我期望的那样,我尝试使用连接到url的(以前的POST-)数据执行GET请求.这给了我预期的答案.
有人知道我误解了什么吗?
def connect(self):
url = 'http://www.mitfahrgelegenheit.de/mitfahrzentrale/Dresden/Potsdam.html/'
user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
header = { 'User-Agent' : user_agent }
values = {
'city_from' : 69,
'radius_from' : 0,
'city_to' : 263,
'radius_to' : 0,
'date' : 'date',
'day' : 5,
'month' : 03,
'year' : 2012,
'tolerance' : 0
}
data = urllib.urlencode(values)
# req = urllib2.Request(url+data, None, header) # GET works fine
req = urllib2.Request(url, data, header) # POST request doesn't not work
self.response = urllib2.urlopen(req)
Run Code Online (Sandbox Code Playgroud)
这似乎是一个类似于这里讨论的问题:Python URLLib/URLLib2 POST但我很确定在我的情况下,不会丢失尾部斜杠.;)
我担心这可能是一个愚蠢的误解,但我已经好几个小时了!
编辑:打印的便利功能:
def response_to_str(response):
return response.read()
def dump_response_to_file(response):
f = open('dump.html','w')
f.write(response_to_str(response))
Run Code Online (Sandbox Code Playgroud)
编辑2:解决方案:
我找到了一个工具来捕捉与网站的真实互动,http://fiddler2.com/fiddler2/.显然,服务器从输入表单中获取数据,重定向几次然后发出GET请求,并将此数据简单地附加到url.
urllib2一切都很好,我为滥用你的时间而道歉!
gsb*_*bil 15
您可以使用Firefox的Firebug或Google Chromes DevTools找到正确的帖子URL .
我为您提供了一些支持cookie的代码,以便您可以先登录并使用cookie通过您的帖子参数发出后续请求.
最后,如果您可以向我们展示一些示例HTML输出,那将使生活更轻松.
这里的是我的代码已经对我很可靠至今就职于POST-ING于大多数网页包括受保护的页面CSRF/XSRF只要你能够正确地找出(什么张贴,并在那里(其中URL)张贴到).
import cookielib
import socket
import urllib
import urllib2
url = 'http://www.mitfahrgelegenheit.de/mitfahrzentrale/Dresden/Potsdam.html/'
http_header = {
"User-Agent" : "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.46 Safari/535.11",
"Accept" : "text/xml,application/xml,application/xhtml+xml,text/html;q=0.9,text/plain;q=0.8,text/png,*/*;q=0.5",
"Accept-Language" : "en-us,en;q=0.5",
"Accept-Charset" : "ISO-8859-1",
"Content-type": "application/x-www-form-urlencoded",
"Host" : "www.mitfahrgelegenheit.de",
"Referer" : "http://www.mitfahrgelegenheit.de/mitfahrzentrale/Dresden/Potsdam.html/"
}
params = {
'city_from' : 169,
'radius_from' : 0,
'city_to' : 263,
'radius_to' : 0,
'date' : 'date',
'day' : 5,
'month' : 03,
'year' : 2012,
'tolerance' : 0
}
# setup socket connection timeout
timeout = 15
socket.setdefaulttimeout(timeout)
# setup cookie handler
cookie_jar = cookielib.LWPCookieJar()
cookie = urllib2.HTTPCookieProcessor(cookie_jar)
# setup proxy handler, in case some-day you need to use a proxy server
proxy = {} # example: {"http" : "www.blah.com:8080"}
# create an urllib2 opener()
#opener = urllib2.build_opener(proxy, cookie) # with proxy
opener = urllib2.build_opener(cookie) # we are not going to use proxy now
# create your HTTP request
req = urllib2.Request(url, urllib.urlencode(params), http_header)
# submit your request
res = opener.open(req)
html = res.read()
# save retrieved HTML to file
open("tmp.html", "w").write(html)
print html
Run Code Online (Sandbox Code Playgroud)