小编Jér*_*mie的帖子

防止emacs在完成后自动关闭窗口

这是已经提到的问题的一些变化,但我无法弄清楚到底是什么.

我的框架分为三个窗口:

----------------
|       |      |
|       |------|
|       |shell |
----------------
Run Code Online (Sandbox Code Playgroud)

当我输入shell时,我会选择"tab"来完成.它们出现在左侧的窗口中.然后emacs不会关闭缓冲区,而是关闭整个窗口,并且我留下了一个水平分割的屏幕:

----------------
|              |
|--------------|
| shell        |
----------------
Run Code Online (Sandbox Code Playgroud)

我不确定我是否理解如何阻止这种情况发生,这不是我记得曾经遇到过的问题.我的拙劣尝试设法进入了emacs根本不会关闭完成建议缓冲区的状态,但这也不理想.

有什么办法可以让emacs正常关闭完成缓冲区,但是让我的窗口独自一人?

emacs

5
推荐指数
1
解决办法
639
查看次数

Scrapy:如何构建一个从多个 URL 收集信息的项目?

经过多年不情愿地将抓取工具编码为正则表达式和 BeautifulSoup 等的大杂烩之后,我发现了Scrapy,我几乎把它当作今年给自己的圣诞礼物!它使用起来很自然,而且似乎是为了让几乎所有东西都变得优雅和可重复使用而构建的。

但我处于一种不知道如何处理的情况:我的蜘蛛爬行并抓取列表页面 A,从中生成一组项目。但对于每个项目,我需要获取一个不同的补充链接(由一些抓取的信息构建,但不是 Scrapy 可以跟踪的页面上的明确链接)以获取附加信息。

我的问题分为两部分:在爬网过程之外获取 URL 的协议是什么?如何以优雅的方式从多个来源构建项目?

在 StackOverflow 上的上一个问题中已经部分地提出(并回答)了这个问题。但我更感兴趣的是 Scrapy 的哲学在这个用例中应该是什么——肯定不是不可预见的可能性?我想知道这是否是管道注定要使用的事情之一(添加从主要信息推导出来的辅助来源的信息是一个“后处理”实例),但是最好的方法是什么?不是彻底搞乱了Scrapy高效的异步组织吗?

python pipeline scrapy web-scraping

5
推荐指数
1
解决办法
1802
查看次数

标签 统计

emacs ×1

pipeline ×1

python ×1

scrapy ×1

web-scraping ×1