这个shell命令成功
$ curl -A "Mozilla/5.0 (X11; Linux x86_64; rv:18.0) Gecko/20100101 Firefox/18.0 (compatible;)" http://fifa-infinity.com/robots.txt
Run Code Online (Sandbox Code Playgroud)
并打印robots.txt.省略user-agent选项会导致服务器出现403错误.检查robots.txt文件表明允许抓取http://www.fifa-infinity.com/board下的内容.但是,以下失败(python代码):
import logging
import mechanize
from mechanize import Browser
ua = 'Mozilla/5.0 (X11; Linux x86_64; rv:18.0) Gecko/20100101 Firefox/18.0 (compatible;)'
br = Browser()
br.addheaders = [('User-Agent', ua)]
br.set_debug_http(True)
br.set_debug_responses(True)
logging.getLogger('mechanize').setLevel(logging.DEBUG)
br.open('http://www.fifa-infinity.com/robots.txt')
Run Code Online (Sandbox Code Playgroud)
我的控制台上的输出是:
No handlers could be found for logger "mechanize.cookies"
send: 'GET /robots.txt HTTP/1.1\r\nAccept-Encoding: identity\r\nHost: www.fifa-infinity.com\r\nConnection: close\r\nUser-Agent: Mozilla/5.0 (X11; Linux x86_64; rv:18.0) Gecko/20100101 Firefox/18.0 (compatible;)\r\n\r\n'
reply: 'HTTP/1.1 403 Bad Behavior\r\n'
header: Date: Wed, 13 Feb 2013 …Run Code Online (Sandbox Code Playgroud) 假设我在表中有这些数据:
id | thing | operation | timestamp
----+-------+-----------+-----------
0 | foo | add | 0
0 | bar | add | 1
1 | baz | remove | 2
1 | dim | add | 3
0 | foo | remove | 4
0 | dim | add | 5
Run Code Online (Sandbox Code Playgroud)
是否有任何方法可以构建一个Postgres SQL查询,该查询将按ID和操作进行分组,但是没有将具有更高时间戳值的行分组给那些具有更低时间戳的行?我想从查询中得到这个:
id | things | operation
----+----------+-----------
0 | foo, bar | add
1 | baz | remove
1 | dim | add
0 | foo | remove …Run Code Online (Sandbox Code Playgroud) 我的情况是我必须调试的程序必须在 chrooted 环境中运行。现在我已经在另一个根目录中安装了 gdb 并复制了源代码,这适用于基本设置,但不是很方便,因为我每次进行更改和重新编译时都必须重新同步源代码,而且我必须复制我所有的 gdb 设置等等。
有什么方法可以在我的正常环境中运行调试器来调试在 chrooted 环境中运行的程序?我在 Arch Linux 上。