如何在c中使用scanf扫描IP地址?
我已经用户:
scanf(" %d ", &ip_adress)
我应该使用
%d.%d.%d
或者有更简单的方法。
这是我从文件中读取信息的函数:
void read_tree_from(FILE *in, PC **root){
char name[MAX_NAME];
int ip_adress;
int speed;
while(fscanf(in, "%s %d %d", name, &ip_adress, &speed) != EOF){
PC *new = create_new_item(name, ip_adress, speed);
add_to_tree(new, root);
}
}
Run Code Online (Sandbox Code Playgroud)
但是当我运行该程序时,它工作正常,但在输出文件中却很混乱......
我最近开始使用Scrapy,所以我不太熟练,所以这确实是一个新手问题。
我在练习中使用一些随机惯例,我在抓取名称和展位号,但是我也想要来自公司的链接,这些链接位于新窗口内,我已经找到并存储了来自锚标签的链接,但是我没有知道如何抓取那些新的链接,任何帮助或指导都将很可爱
import scrapy
class ConventionSpider(scrapy.Spider):
name = 'convention'
allowed_domains = ['events.jspargo.com/ASCB18/Public/Exhibitors.aspx?sortMenu=102003']
start_urls = ['https://events.jspargo.com/ASCB18/Public/Exhibitors.aspx?sortMenu=102003']
def parse(self, response):
name = response.xpath('//*[@class="companyName"]')
number = response.xpath('//*[@class="boothLabel"]')
link = response.xpath('//*[@class="companyName"]')
for row, row1, row2 in zip(name, number, link):
company = row.xpath('.//*[@class="exhibitorName"]/text()').extract_first()
booth_num = row1.xpath('.//*[@class="boothLabel aa-mapIt"]/text()').extract_first()
url = row2.xpath('.//a/@href').extract_first()
yield {'Company': company,'Booth Number': booth_num}
Run Code Online (Sandbox Code Playgroud) 我有一个大约 2400 万行的大型 csv,我想缩小大小。
这是 csv 的一些预览:
我想删除具有相同 CIK 和 IP 的行,因为我有一堆这些文件并且它们占用了大量空间,所以我想制定一种有效的方法来删除重复项。
我已经测试了 CIK 有多少重复项,有些重复项超过 100k,这就是为什么我想删除这些重复项。
我尝试过一些东西,但在大多数情况下都失败了,因为 csv 的大小。