小编Mou*_*jan的帖子

将一个csv拆分为python中的多个文件

我在python中有一个大约5000行的csv文件我想将它分成五个文件.

我为它写了一个代码,但它没有用

import codecs
import csv
NO_OF_LINES_PER_FILE = 1000
def again(count_file_header,count):
    f3 = open('write_'+count_file_header+'.csv', 'at')
    with open('import_1458922827.csv', 'rb') as csvfile:
        candidate_info_reader = csv.reader(csvfile, delimiter=',', quoting=csv.QUOTE_ALL)
        co = 0      
        for row in candidate_info_reader:
            co = co + 1
            count  = count + 1
            if count <= count:
                pass
            elif count >= NO_OF_LINES_PER_FILE:
                count_file_header = count + NO_OF_LINES_PER_FILE
                again(count_file_header,count)
            else:
                writer = csv.writer(f3,delimiter = ',', lineterminator='\n',quoting=csv.QUOTE_ALL)
                writer.writerow(row)

def read_write():
    f3 = open('write_'+NO_OF_LINES_PER_FILE+'.csv', 'at')
    with open('import_1458922827.csv', 'rb') as csvfile:


        candidate_info_reader = csv.reader(csvfile, delimiter=',', …
Run Code Online (Sandbox Code Playgroud)

python csv split

14
推荐指数
5
解决办法
4万
查看次数

请求卷曲但不是邮递员

此请求与curl一起使用

curl 'http://www.express.com/browse/gadgets/store-change-location-more.jsp?changelocation=true&catelogRefId=75116576' -H 'Cookie: JSESSIONID=6D26018EFF8B54EC4022299B2AC7B184.cmhlpecomecm02w2;' --compressed
Run Code Online (Sandbox Code Playgroud)

但同样的要求不适用于邮政人员

发布man请求

Request Type : GET

URL : http://www.express.com/browse/gadgets/store-change-location-more.jsp?changelocation=true&catelogRefId=75116576

Headers:

Cookie: JSESSIONID=6D26018EFF8B54EC4022299B2AC7B184.cmhlpecomecm02w2;
Run Code Online (Sandbox Code Playgroud)

如何使邮政人员请求工作?

curl postman

11
推荐指数
4
解决办法
9763
查看次数

urllib.request模块无法在我的系统中安装

尝试使用以下命令安装urllib.request模块

sudo pip install urllib.request
Run Code Online (Sandbox Code Playgroud)

但它回来了

Downloading/unpacking urllib.request
  Could not find any downloads that satisfy the requirement urllib.request
Cleaning up...
No distributions at all found for urllib.request
Storing debug log for failure in /home/mounarajan/.pip/pip.log
Run Code Online (Sandbox Code Playgroud)

我该如何安装这个模块?

python ubuntu sudo pip urllib

10
推荐指数
3
解决办法
7万
查看次数

如何在C#中发出HTTP请求

我如何在Windows中的C#中发出卷曲请求

我想使用此参数发出Web请求,并且它应该收到有效的响应

请求

curl 'http://www1.bloomingdales.com/api/store/v2/stores/367,363,6113,364,4946?upcNumber=808593890516' -H 'Cookie:shippingCountry=US;' -H 'Accept-Encoding: gzip, deflate, sdch' -H 'User-Agent: Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Ubuntu Chromium/49.0.2623.108 Chrome/49.0.2623.108 Safari/537.36' -H 'Accept-Language: en-US,en;q=0.8' -H 'Accept: application/json, text/javascript, */*; q=0.01' --compressed
Run Code Online (Sandbox Code Playgroud)

在perl中,我只会做

my $page = `curl --silent 'http://www1.bloomingdales.com/api/store/v2/stores/367,363,6113,364,4946?upcNumber=808593890516' -H 'Cookie:shippingCountry=US;' -H 'Accept-Encoding: gzip, deflate, sdch' -H 'User-Agent: Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Ubuntu Chromium/49.0.2623.108 Chrome/49.0.2623.108 Safari/537.36' -H 'Accept-Language: en-US,en;q=0.8' -H 'Accept: application/json, text/javascript, */*; q=0.01' --compressed 2>/dev/null`;
Run Code Online (Sandbox Code Playgroud)

然后

my $page
Run Code Online (Sandbox Code Playgroud)

结果存储在上面的变量中。

如何在C#中类似地做?

c# curl

5
推荐指数
2
解决办法
5477
查看次数

如果错误代码为 404,如何在 wget 中获取准确的页面内容

我有两个 url 一个是工作 url 另一个是页面删除的 url.working url 很好但是对于页面删除的 url 而不是获取确切的页面内容 wget 接收 404

工作网址

import os
def curl(url):
    data = os.popen('wget -qO- %s '% url).read()
    print (url)
    print (len(data))
    #print (data)

curl("https://www.reverbnation.com/artist_41/bio")
Run Code Online (Sandbox Code Playgroud)

输出:

https://www.reverbnation.com/artist_41/bio
80067
Run Code Online (Sandbox Code Playgroud)

页面删除网址

import os
def curl(url):
    data = os.popen('wget -qO- %s '% url).read()
    print (url)
    print (len(data))
    #print (data)

curl("https://www.reverbnation.com/artist_42/bio")
Run Code Online (Sandbox Code Playgroud)

输出:

https://www.reverbnation.com/artist_42/bio
0
Run Code Online (Sandbox Code Playgroud)

我得到的长度为 0 但实时页面中有一些内容

如何在 wget 或 curl 中接收确切的内容

curl wget web-scraping python-3.x

1
推荐指数
1
解决办法
695
查看次数

Python多处理工作在Linux中,但不在Windows中

我有一个多处理脚本,我在linux和windows中都尝试过

在Linux中它工作正常但在Windows中脚本运行一些随机的未知结果,脚本甚至没有结束

脚本

from multiprocessing.pool import Pool
def get_urls1():
    res = [1,2,3,4,5]

    nprocs = 20 # nprocs is the number of processes to run
    ParsePool = Pool(nprocs)
    #ParsePool.map(btl_test,url)
    ParsedURLS = ParsePool.map(extractData,res)

def extractData(r):
    print r

get_urls1()
Run Code Online (Sandbox Code Playgroud)

Linux输出

1
3
2
5
4
Run Code Online (Sandbox Code Playgroud)

但是当我在Windows中运行相同的脚本时,它并没有给出确切的结果,因为linux和脚本甚至没有结束(但是如果我删除多处理脚本工作)

我应该怎样修复多处理工作?

python linux windows multiprocessing

1
推荐指数
1
解决办法
948
查看次数

正则表达式模式说明

多诺这个正则表达式正在做什么

(?>[^\,]*\,){3}([^\,]*)[\']?
(?>[^\,]*\,){4}([^\,]*)[\']?
Run Code Online (Sandbox Code Playgroud)

任何人都可以在deatil中解释我更多

regex

-5
推荐指数
1
解决办法
66
查看次数

标签 统计

curl ×3

python ×3

c# ×1

csv ×1

linux ×1

multiprocessing ×1

pip ×1

postman ×1

python-3.x ×1

regex ×1

split ×1

sudo ×1

ubuntu ×1

urllib ×1

web-scraping ×1

wget ×1

windows ×1