Ghi*_*ADJ 1 ruby recursion mechanize web-crawler
如何使用该Mechanize
库查找网站上的所有链接?
我想以递归方式解析内部链接,以便获取网站的所有链接.
你看过Anemone的宝石吗?它专门为蜘蛛网站创建.
您可以执行以下操作来抓取并打印网站的所有链接:
require 'anemone'
Anemone.crawl("http://www.example.com/") do |anemone|
anemone.focus_crawl { |page| puts page.links }
end
Run Code Online (Sandbox Code Playgroud)
如果你想要整个方面,排除某些类型的链接,或排除类似的链接,可以选择相应的选项.
归档时间: |
|
查看次数: |
933 次 |
最近记录: |