我是python和scrapy的新手.我想遵循Scrapy教程,但我不理解存储步骤的逻辑.
scrapy crawl spidername -o items.json -t json
scrapy crawl spidername --set FEED_URI=output.csv --set FEED_FORMAT=csv
Run Code Online (Sandbox Code Playgroud)
我不明白的意思是:
谢谢您的帮助
我的问题可能很常见,但我不知道如何调整这个问题的答案
我有一个带有两个参数(a,b)的函数F,我必须找到这个函数的最大值.
现在,我这样做:
optimization_of_F<-function(a,b){
solution=c(0,0,0) #initialization
a=seq(0, 5, by=0.1)
b=seq(0.1, 5, by =0.1)
for (d in a){
for (k in b){
if ( F(d, k) > solution[1] ) {
solution[1]= F(d,k)
solution[2]= d
solution[3]= k
}
}
}
return(solution)
}
Run Code Online (Sandbox Code Playgroud)
但这种方式太长了,我想优化它.我怎样才能做到这一点 ?