我有一个 C++ 应用程序测试,它在 NFS 挂载目录中创建了 10,000 个文件,但我的测试最近失败了一次,因为一个文件在该目录中与所有其他 10,000 个文件以相同的名称出现了两次。这可以在安装了 NFS 目录的 Linux Centos v4 或 v5 上看到,但不能在磁盘所在的主机上看到。
怎么可能在同一个目录中有两个同名的文件?
[centos4x32 destination] ls -al ./testfile03373
-rwx------ 1 user root 3373 Sep 3 03:23 ./testfile03373*
[centos4x32 destination] ls -al ./testfile03373*
-rwx------ 1 user root 3373 Sep 3 03:23 ./testfile03373*
-rwx------ 1 user root 3373 Sep 3 03:23 ./testfile03373*
[centos4x32 destination] ls -al *testfile03373
-rwx------ 1 user root 3373 Sep 3 03:23 testfile03373*
-rwx------ 1 user root 3373 Sep 3 03:23 testfile03373*
[centos4x32 destination] …Run Code Online (Sandbox Code Playgroud) 在一个新的电源启动了我的 CPU、MBD、显卡和蓝光驱动器后,我刚刚重建了我的系统。
在所有这些过程中,我不得不从备份(扇区副本)中恢复 Windows。
一切看起来都很好,但今天我进入了示例图片(偶然),当我看到一些奇怪的东西时,我正在点击它 - 几个文件具有相同的名称!
这是我到目前为止所拥有的:
所以我的问题是:
怎么可能在同一个目录中拥有完全相同的名称的相同文件?是什么导致了这种情况?
例如,我有一个文本文件,每一行都是一个长字符串。我想排除这个字符串的 2 个“段”,比如第 1-7 和 20-22 列。所以下面的两行将是匹配的:
123456789012345678901234567890
------------------------------
xxxxxxxAAAAAAAAAAAAxxxBBBBBBBB
yyyyyyyAAAAAAAAAAAAyyyBBBBBBBB
Run Code Online (Sandbox Code Playgroud)
我知道 WinMerge 有一个“IgnoreColumns”插件,但我从来没有这样做过。在本例中,我将其重命名为 IgnoreColumns_1-7, 20-22.dll,在插件菜单中选择它,然后选择“Pre-Differ”。但它从未奏效。
我将比较不想修改的大文件。我不反对在与 sed 或类似的比较中对它们进行流式编辑,但我不想修改实际文件。我还没有选择将 sed 提供给 diff 只是因为我希望获得更直观的数据视图。
在 linux 上的 zfs 上写入 zfs 文件系统的数据的顺序是什么?
我在http://docs.oracle.com/cd/E36784_01/html/E36835/gkknx.html 上找到的唯一特定文件说;When a file is written, the data is compressed, encrypted, and the checksum is verified. Then, the data is deduplicated, if possible.
但如果这是真的,那么 dedup 将不会对使用不同压缩算法压缩的块进行重复数据删除。
我测试mysqlf,我相信,顺序如下:dedup, compress, encrypt。
我的测试设置:
zpool create tank /dev/sdb
zfs create tank/lz4
zfs create tank/gzip9
zfs set compression=lz4 tank/lz4
zfs set compression=gzip-9 tank/gzip9
zfs set dedup=on tank
Run Code Online (Sandbox Code Playgroud)
输出 zfs list
NAME USED AVAIL REFER MOUNTPOINT
tank 106K 19,3G 19K /tank
tank/gzip9 19K 19,3G …Run Code Online (Sandbox Code Playgroud) 我正在使用 Windows 7 来执行此操作。我有相当广泛的音乐库,现在我有很多重复的曲目,但在不同的专辑中。显然我真的不想要重复的文件,但我仍然希望它们出现在它们应该出现的所有专辑中。我遇到的最大例子是,我现在有多个英国前 40 名,有些歌曲在排行榜上排了好几个星期,所以我不想要那首歌的多个版本 - 但我确实希望能够看到这首歌在每个星期仍然。(在我的 iPhone 上...)
有没有办法在 iTunes 中做到这一点?如果这意味着我可以消除重复的曲目,我不介意一些乏味的工作!
是否有适用于 Windows 的应用程序可以找到重复的图像并快速预览图像,最重要的是,图像文件的元数据。
我可以看到有一些程序可以查找内容相同的文件,只是名称不同,还有其他程序可以让您在忽略元数据的情况下找到具有相似图像的文件。
但是,当我看到两个包含相同图像的文件时,最重要的区别就变成了元数据。例如,一张图片有一些标签或描述,但另一张没有(或不同)。
我发现的程序只提供图像预览,并比较文件名、路径、大小,但不提供元数据。
我有一个包含多个数据集的容器,其中只有一个配置为使用重复数据删除。
如何查看此数据集的比率?我得到了整个池的 1.00 倍的比率,但我想这只是报告了坦克中内容的比率,这没什么(我只有坦克中的数据集)。
尽管 Digikam 提供了查找重复照片的出色功能,但据我所知,它并不能轻松删除重复照片并保留原始照片。我希望该功能就在那里,但我找不到它。
如何隐藏参考图像并仅显示重复图像以将其删除?
我无法执行“限制:排除参考相册”,因为我的所有原始照片和重复照片都在同一个相册(文件夹)中。
我使用的是 OSX 10.8.4,并且希望在 md5 哈希匹配的情况下删除单个平面目录中的重复文件。
我查找了几个答案,但没有一个对我有用,我认为这是因为终端版本之间的命令语法存在差异。
我尝试过的事情:
http://www.chriswrites.com/2012/02/how-to-find-and-delete-duplicate-files-in-mac-os-x/
其中一些: http: //www.commandlinefu.com/commands/view/3555/find-duplicate-files-based-on-size-first-then-md5-hash#comment
这种方法感觉最接近:
find . -size 20 \! -type d -exec cksum {} \; | sort | tee /tmp/f.tmp | cut -f 1,2 -d ' ' | uniq -d | grep -hif - /tmp/f.tmp > duplicates.txt
Run Code Online (Sandbox Code Playgroud)
但我收到一个错误:grep: -: No such file or directory
经检查,/tmp/f.tmp确实存在。duplicates.txt 文件已创建,但为空。
如何删除这些文件的重复数据?
比方说,文件orig和copy是巨大的,但相同的文件。为了节省存储空间,因此可以对两个文件进行copy软链接orig或硬链接到相同的数据。orig绝不能修改,而在将来copy可能会这样做。
是否可以实现copy再次成为自己的文件,对其进行实例修改,从而orig以再次丢失先前保存的空间为代价保持未修改?
我正在尝试从包含 Outlook 中存档的 .PST 文件的单个文件夹中删除数百个重复的 .PST 文件。我尝试过几个重复删除器应用程序,它们依靠校验和来确定等效性,得到相同的结果:明显重复的文件具有不同的校验和。我被引导相信仅仅拥有不同的标题不应该改变校验和。是什么导致了不同的校验和?
.PST 目录中显示重复项的文件子集:
12/15/2021 09:01 AM 96,011,264 11_SonyArchiveFolderBackup Repaired (2).pst
12/15/2021 09:01 AM 96,011,264 11_SonyArchiveFolderBackup Repaired.pst
12/15/2021 09:01 AM 111,756,288 11_SonyArchiveFolderBackup.pst
12/15/2021 09:01 AM 271,360 12-4_Inbox - Copy (2).pst
12/15/2021 09:01 AM 271,360 12-4_Inbox - Copy (3).pst
12/15/2021 09:01 AM 271,360 12-4_Inbox.pst
12/15/2021 09:02 AM 21,857,280 12_SonyPersonalFolderBackup (10).pst
12/15/2021 09:02 AM 21,857,280 12_SonyPersonalFolderBackup (11).pst
12/15/2021 09:02 AM 21,857,280 12_SonyPersonalFolderBackup (12).pst
12/15/2021 09:02 AM 21,857,280 12_SonyPersonalFolderBackup (13).pst
12/15/2021 09:02 AM 21,857,280 12_SonyPersonalFolderBackup (14).pst
12/15/2021 09:02 …Run Code Online (Sandbox Code Playgroud) deduplication ×13
music ×2
software-rec ×2
windows-7 ×2
zfs ×2
centos ×1
command-line ×1
compression ×1
diff ×1
digikam ×1
duplicate ×1
filenames ×1
filesystems ×1
id3 ×1
itunes ×1
kde ×1
libraries ×1
linux ×1
mp3 ×1
nfs ×1
ntfs ×1
photos ×1
tags ×1
windows ×1