通过python抓取sitemap.xml

Tus*_*aya 2 python xml beautifulsoup web-crawler

我正在抓取 sitemap.xml,我的目标是找到所有 url 和它们的增量计数。

下面是xml的结构

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
    <url>
        <loc>http://www.htcysnc.com/m/designer-sarees</loc>
        <lastmod>2014-09-01</lastmod>
    <changefreq>hourly</changefreq>
    <priority>0.9</priority>
</url>
<url>
    <loc>http://www.htcysnc.com/m/anarkali-suits</loc>
    <lastmod>2014-09-01</lastmod>
    <changefreq>hourly</changefreq>
    <priority>0.9</priority>
</url>
Run Code Online (Sandbox Code Playgroud)

下面是我的代码

from BeautifulSoup import BeautifulSoup
import requests
import gzip
from StringIO import StringIO


def crawler():
    count=0
    url="http://www.htcysnc.com/sitemap/sitemap_product.xml.gz"
    old_xml=requests.get(url)
    new_xml=gzip.GzipFile(fileobj=StringIO(old_xml.content)).read()
    #new_xml=old_xml.text
    final_xml=BeautifulSoup(new_xml)
    item_to_be_found=final_xml.findAll('loc')
    for i in item_to_be_found:
        count=count+1
        print i
        print count
    crawler()
Run Code Online (Sandbox Code Playgroud)

我的输出是这样的

<loc>http://www.htcysnc.com/elegant-yellow-green-suit-seven-east-p63703</loc>
1
<loc>http://www.htcysnc.com/elegant-orange-pink-printed-suit-seven-east-p63705</loc>
2
Run Code Online (Sandbox Code Playgroud)

需要输出为没有 loc 和 /loc 的链接。已尝试替换命令,但会引发错误。

sal*_*hed 5

这里item_to_be_found列表中的每个项目都是一个Tag类型对象,因此您可以<loc>使用.text.string在它们上获取标签内的字符串。虽然.text并且.string差异,但在这种情况下两者的工作方式相同。

for loc in item_to_be_found:
    print item_to_be_found.index(loc) + 1, loc.text
Run Code Online (Sandbox Code Playgroud)

这会给你一个结果

1 http://www.htcysnc.com/m/designer-sarees
2 http://www.htcysnc.com/m/anarkali-suits
Run Code Online (Sandbox Code Playgroud)