我在一个服务器系统上工作,不允许我存储超过50千兆字节的文件.我的应用程序需要20分钟才能生成文件.有什么方法可以将所有超过30分钟的文件从源移动到目的地吗?我试过了rsync
:
rsync -avP source/folder/ user@destiantionIp:dest/folder
Run Code Online (Sandbox Code Playgroud)
但这不会从我的服务器中删除文件,因此存储限制失败.
其次,如果我使用该mv
命令,仍然生成的文件也会移动到目标文件夹,程序将失败.
我有一个矩阵数据框6940行和100列.我需要在数据集上一次累积5天.现在我能够为此构建一个for循环代码,如下所示:
cum<- matrix(data=q1,nrow=6940,ncol=100)
for (j in 1:100){
for (i in 1:6940){
cum[i,j]<-sum(q1[i,j],q1[i+1,j],q1[i+2,j],q1[i+3,j],q1[i+4,j],na.rm=T)
}
}
Run Code Online (Sandbox Code Playgroud)
我想知道应用系列中是否有任何功能来执行相同操作,因为此代码非常耗时.
例如,如果我使用该命令生成数据帧
ens <- matrix(rnorm(200),20)
Run Code Online (Sandbox Code Playgroud)
我想要一次累计5行.即数据帧形式的row1:row5,row2:row6,row3:row7等的总和.
我试过在这种形式下使用apply函数:
apply(apply(apply(apply( apply(m, 2, cumsum),2, cumsum), 2, cumsum),2,cumsum),2,cumsum)
Run Code Online (Sandbox Code Playgroud)
但问题是我没有得到累积的5块,只有一个整体累积.