我们有人在退出之前偷了一些文件,最终归结为诉讼。我现在得到了一张文件 cd,我必须通过将它们与来自我们自己的文件服务器的文件进行匹配来“证明”它们是我们的文件。
我不知道这是否只是为了我们的律师或法庭的证据,还是两者兼而有之。我也意识到我不是一个公正的第三者。
在思考如何“证明”这些文件来自我们的服务器时,我们意识到我还必须在收到 CD 之前证明我们拥有这些文件。我的老板在我们收到 cd 的前一天拍摄了我们浏览器窗口的相关文件的屏幕截图,并显示了创建日期和文件名,并通过电子邮件将它们发送给我们的律师。我本来希望提供 md5sums,但我没有参与该过程的那部分。
我的第一个想法是使用 unix diff 程序并提供控制台 shell 输出。我还认为我可以将它与我们的文件及其文件的 md5 总和结合起来。这两者都很容易被伪造。
我不知道我实际上应该提供什么,然后又不知道如何提供可审计的跟踪来重现我的发现,所以如果确实需要由第三方证明它可以。
有人对这个有经验么?
案件事实:
在 Linux 服务器上,我需要在当前目录和所有子目录中查找具有特定文件扩展名的所有文件。
以前,我一直使用以下命令:
find . -type f | grep -i *.php
Run Code Online (Sandbox Code Playgroud)
但是,它找不到隐藏文件,例如.myhiddenphpfile.php。下面找到隐藏的 php 文件,而不是非隐藏的文件:
find . -type f | grep -i \.*.php
Run Code Online (Sandbox Code Playgroud)
如何在同一命令中同时找到隐藏和非隐藏的 php 文件?
我与一个团队一起管理 500 到 600 台租用的 Windows 7 计算机,用于年度会议。我们有大量数据需要同步到这些计算机,最多 1 TiB。计算机被分成多个房间并通过非管理型千兆交换机连接。在我们将基本映像发送给租赁公司进行复制之前,我们会提前准备好这些计算机,并安装和配置 Windows,以及我们可用的任何文件。每年,我们都会让演示者在现场处理多达演出数据,这些数据需要推送到他们将要演示的房间。有时他们只有几个小文件,例如幻灯片 PDF,但可以有时要大得多> 5 GiB。
我们当前推送这些文件的策略是使用批处理脚本和 RoboCopy。对于大推送,我们实际上是使用 BitTorrent 客户端生成一个 torrent 文件,然后我们使用批处理 RoboCopy 将 torrent 推送到远程机器上的文件夹中,该文件夹由已安装的 BT 客户端监控。很多时候,这些数据需要在很小的时间窗口内立即推送。我们在控制室里有几台机器,它们与我们用于这些推送的地板上的机器相同。
我们偶尔需要在远程机器上执行一个程序,我们目前使用批处理和 PSexec 来处理这个任务。
我们希望能够以“对不起,你自己的错”来回应这些最后一分钟的推送,但它不会发生。BT 方法让我们有更快的响应时间,但是当有多个作业被推送时,整个批处理过程会变得混乱。我们将 Enterprise Ghost 用于其他流程,它在如此大规模的情况下效果不佳,而且对于像这样一年一次的任务来说,它确实非常昂贵。
编辑:地板上的远程机器运行 Windows 有一个硬性要求。控制机器没有硬性操作系统要求。由于上游路由器的复杂性,我真的很想远离多播。多播或 BitTorrent 是更好的方法吗?是否有另一种可能更好的协议?
这就是我需要的:
rsync -ptv rsync://source_ip:document/source_path/*.abc destination_path/
我对接收端 rsync 消耗的 CPU 量不满意?在上述情况下,哪些 rsync 选项将帮助我优化 rsync 的使用。我担心的是 rsync 可能做的比我需要的更多。rsync 校验和文件。我不需要那个。
也希望看到速度改进。
更改块大小、禁用校验和等会有所帮助吗?
我需要做一个有点奇怪的操作。
首先,我在 Debian、apache2 上运行(以用户 www-data 的身份“运行”)
所以,我有 .txt 或 .ini 或任何扩展名的简单文本文件,无关紧要。
这些文件位于具有如下结构的子文件夹中:
www.example.com/folder1/car/foobar.txt www.example.com/folder1/cycle/foobar.txt www.example.com/folder1/fish/foobar.txt www.example.com/folder1/fruit/foobar 。文本
因此,文件名始终相同,“层次结构”也是如此,只需更改文件夹的名称:/folder-name-static/folder-name-dinamyc/file-name-static.txt
我应该做的是(我认为)相对简单:我必须能够通过服务器上的程序(例如python,php)读取该文件,但是如果我尝试通过浏览器检索文件内容(数字化网址www. example.com/folder1/car/foobar.txt,或通过 cUrl 等。)我必须得到一个禁止的错误,或其他什么,但不能访问文件。
即使通过 FTP 访问这些文件也是“隐藏的”,或者无论如何都无法下载(至少我与 ftp 根和用户数据一起使用),这也很好
我能怎么做?
我在网上找到了这个,放在文件 .htaccess 中:
<Files File.txt>
Order allow, deny
Deny from all
</ Files>
Run Code Online (Sandbox Code Playgroud)
它似乎有效,但前提是文件位于 Web 根目录 (www.example.com / myfile.txt) 中,而不是子文件夹中。此外,在第二级(www.example.com/folder1/文件夹水果/foobar.txt)将dinamycally创建..我想,以避免随时更改.htaccess文件时间。
可以创建一个类似这样的规则,该规则适用于具有给定名称的所有文件,该文件位于 *www.example.com/folder-name-static/ *folder-name-dinamyc/***file-name -static.txt*,这些部分都是一样的,只是**那一个变化?
编辑:
正如 Dave Drager 所说,我可以将这些文件保留在 Web 可访问目录之外。但是这些目录也将包含我的用户使用的其他文件、图像和内容,因此我只是尝试不使用重复的文件夹系统,例如:
/var/www/vhosts/example.com/httpdocs/folder1/car/[other folders and files here]
/var/www/vhosts/example.com/httpdocs/folder1/cycle/[other folders and files here]
/var/www/vhosts/example.com/httpdocs/folder1/fish/[other folders and …Run Code Online (Sandbox Code Playgroud) 我们使用 rsnapshot 进行备份。它保留了备份文件的大量快照,但它确实删除了旧文件。这很好。然而,rm -rf在一个巨大的目录树上做一个大约需要 7 个小时。文件系统是 XFS。我不确定那里有多少个文件,但可能有数百万个。
有没有办法加快速度?是否有任何命令可以执行相同的操作rm -rf并且不需要花费数小时和数小时?
我正在尝试通过 10MB 链接将 75 GB 的 tgz(mysql lvm 快照)从我们洛杉矶数据中心的 Linux 服务器复制到我们纽约数据中心的另一台 Linux 服务器。
我得到大约 20-30Kb/s 的 rsync 或 scp,它在 200-300 小时之间波动。
目前它是一个相对安静的链接,因为第二个数据中心尚未激活,我从小文件传输中获得了极好的速度。
我遵循了通过谷歌找到的不同的 tcp 调整指南,但无济于事(也许我读错了指南,得到了一个好的指南?)。
我已经看到了 tar+netcat 隧道提示,但我的理解是它只适用于大量小文件,并且在文件有效完成传输时不会更新您。
在我求助于运送硬盘之前,有没有人有任何好的意见?
更新: 嗯......毕竟它可能是链接:(见下面我的测试......
从纽约到洛杉矶的接送:
得到一个空白文件。
[nathan@laobnas test]$ dd if=/dev/zero of=FROM_LA_TEST bs=1k count=4700000
4700000+0 records in
4700000+0 records out
4812800000 bytes (4.8 GB) copied, 29.412 seconds, 164 MB/s
[nathan@laobnas test]$ scp -C obnas:/obbkup/test/FROM_NY_TEST .
FROM_NY_TEST 3% 146MB 9.4MB/s 07:52 ETA
Run Code Online (Sandbox Code Playgroud)
获取快照 tarball。
[nathan@obnas db_backup]$ ls -la db_dump.08120922.tar.gz
-rw-r--r-- 1 root root 30428904033 Aug …Run Code Online (Sandbox Code Playgroud) 我正在使用 rsync 上传/下载一个非常大的文件 (20Gb)。我知道 --progress 选项,但它在我的情况下所做的只是在最后向我展示结果。
我的问题是在一些不稳定的连接期间 - 我不知道它是否仍在下载/上传或出现问题。有没有办法显示单个文件的进度条?类似于默认情况下 wget 所做的事情?
谢谢!
有没有一种简单的方法可以将目录中的所有隐藏文件递归复制到另一个目录?我只想备份主目录中的所有设置文件,而不是普通文件。我试过:
cp -R .* directory
Run Code Online (Sandbox Code Playgroud)
但它也识别.并..递归复制所有非隐藏文件。有没有办法让 cp 忽略.和..?
在 Linux 中,我有时会像这样重命名文件:
mv dir1/dir2/dir3/file.txt dir1/dir2/dir3/file.txt.old
Run Code Online (Sandbox Code Playgroud)
请注意,我只想重命名文件,而不是将其移动到另一个目录。
是否有一个命令可以让我执行该命令的速记版本?我在想这样的事情:
mv dir1/dir2/dir3/file.txt file.txt.old
Run Code Online (Sandbox Code Playgroud)
或者甚至是类似的东西(只是附加到名称):
mv dir1/dir2/dir3/file.txt {}.old
Run Code Online (Sandbox Code Playgroud)
我的目标是不必再次指定完整路径。
我知道我写的那些“例子”不起作用,但这只是我想要完成的一个想法。
我不想进入目录。
files ×10
linux ×5
rsync ×3
filesystems ×2
apache-2.2 ×1
bittorrent ×1
copy ×1
cp ×1
diff ×1
find ×1
grep ×1
multicast ×1
mv ×1
performance ×1
permissions ×1
rsnapshot ×1
scp ×1
windows ×1