小编yul*_*ika的帖子

将数百万个文件从一台服务器传输到另一台服务器

我有两台服务器。其中之一有 1500 万个文本文件(约 40 GB)。我正在尝试将它们转移到另一台服务器。我考虑过压缩它们并传输存档,但我意识到这不是一个好主意。

所以我使用了以下命令:

scp -r usrname@ip-address:/var/www/html/txt /var/www/html/txt
Run Code Online (Sandbox Code Playgroud)

但是我注意到这个命令只传输了大约 50,000 个文件,然后连接丢失。

有没有更好的解决方案可以让我传输整个文件集?我的意思是使用诸如rsync传输连接丢失时未传输的文件之类的方法。当另一个连接中断发生时,我会再次键入命令来传输文件,忽略那些已经成功传输的文件。

这是不可能的scp,因为它总是从第一个文件开始。

performance scp rsync file-transfer

16
推荐指数
2
解决办法
2万
查看次数

什么是 centos /root/core.* 文件?他们吃我的硬盘直到它满了

我有一个带有 130GB 硬盘的 vps 服务器。最近服务器崩溃了,我访问ssh并使用dh -h

Filesystem            Size  Used Avail Use% Mounted on
/dev/vzfs             130G  130G   0  99% /
none                  2.0G  4.0K  2.0G   1% /dev
Run Code Online (Sandbox Code Playgroud)

然后使用du -sh /*我找到root fold的 59GB。然后du -sh /root/*,一个包含一些文件的长列表,例如

...
43M     /root/core.7856
59M     /root/core.7859
59M     /root/core.7862
43M     /root/core.7883
43M     /root/core.7885
43M     /root/core.7889
59M     /root/core.7892
59M     /root/core.7904
43M     /root/core.7906
59M     /root/core.7913
43M     /root/core.7915
59M     /root/core.7940
59M     /root/core.7942
43M     /root/core.7947
43M     /root/core.7951
...
Run Code Online (Sandbox Code Playgroud)

我使用fileZilla最近 3 天创建的 1204 core.* 文件访问我的服务器。 …

core-dump

3
推荐指数
1
解决办法
1万
查看次数

centos文件夹权限ftp用户和apache

我有一些文件夹,需要任何人 php 脚本可以创建子文件夹/文件和取消链接文件。

我做 sudo chown -R apache:apache /var/www/public_html/a

但在那之后,我的 ftp 用户无法上传该文件夹中的文件。

我做 sudo chown -R yulichika:users /var/www/public_html/a

该 ftp 可以访问该文件夹,但是任何人都可以访问权限错误的 php 脚本。

我不想用0777设置整个文件夹,那么如何chown 2个具有操作同一文件夹权限的用户?谢谢。

ftp permissions apache-httpd

3
推荐指数
1
解决办法
2万
查看次数