小编Tus*_*aya的帖子

通过python抓取sitemap.xml

我正在抓取 sitemap.xml,我的目标是找到所有 url 和它们的增量计数。

下面是xml的结构

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
    <url>
        <loc>http://www.htcysnc.com/m/designer-sarees</loc>
        <lastmod>2014-09-01</lastmod>
    <changefreq>hourly</changefreq>
    <priority>0.9</priority>
</url>
<url>
    <loc>http://www.htcysnc.com/m/anarkali-suits</loc>
    <lastmod>2014-09-01</lastmod>
    <changefreq>hourly</changefreq>
    <priority>0.9</priority>
</url>
Run Code Online (Sandbox Code Playgroud)

下面是我的代码

from BeautifulSoup import BeautifulSoup
import requests
import gzip
from StringIO import StringIO


def crawler():
    count=0
    url="http://www.htcysnc.com/sitemap/sitemap_product.xml.gz"
    old_xml=requests.get(url)
    new_xml=gzip.GzipFile(fileobj=StringIO(old_xml.content)).read()
    #new_xml=old_xml.text
    final_xml=BeautifulSoup(new_xml)
    item_to_be_found=final_xml.findAll('loc')
    for i in item_to_be_found:
        count=count+1
        print i
        print count
    crawler()
Run Code Online (Sandbox Code Playgroud)

我的输出是这样的

<loc>http://www.htcysnc.com/elegant-yellow-green-suit-seven-east-p63703</loc>
1
<loc>http://www.htcysnc.com/elegant-orange-pink-printed-suit-seven-east-p63705</loc>
2
Run Code Online (Sandbox Code Playgroud)

需要输出为没有 loc 和 /loc 的链接。已尝试替换命令,但会引发错误。

python xml beautifulsoup web-crawler

2
推荐指数
1
解决办法
3102
查看次数

标签 统计

beautifulsoup ×1

python ×1

web-crawler ×1

xml ×1