[root@server]# awk '!seen[$0]++' out.txt > cleaned
awk: (FILENAME=out.txt FNR=8547098) fatal error: internal error
Aborted
[root@server]#
Run Code Online (Sandbox Code Playgroud)
“服务器”具有:8 GByte RAM + 16 GByte SWAP,x>300 GByte 可用空间,amd64,桌面 CPU。科学 Linux 6.6。没有其他东西在它上面运行来制作 LOAD。Awk 在几秒钟后中止.. out.txt 是 ~1.6 GByte。GNU awk 3.1.7。
问题:如何在保持行的顺序的同时删除重复的行?大小写也很重要,例如:“A”和“a”是两条不同的行,必须保留。但是“a”和“a”是重复的,只需要第一个。
答案可能是任何东西.. 如果 awk 对此不利.. 那么 perl/sed.. 问题是什么?
[root@server]# ulimit -a
core file size (blocks, -c) 0
data seg size (kbytes, -d) unlimited
scheduling priority (-e) 0
file size (blocks, -f) unlimited
pending signals (-i) 61945
max locked memory (kbytes, -l) 99999999
max …
Run Code Online (Sandbox Code Playgroud) 我在网上找到的所有方法都说明:
Find all SUID files:
find / -perm -4000 -print
Find all SGID files:
find / -perm -2000 -print
Run Code Online (Sandbox Code Playgroud)
但事实并非如此。看:
$ ls -lah test
-r-sr-xr-x 1 user user 0B Jan 24 22:47 test
$
$
$ stat -x test | grep Mode
Mode: (4555/-r-sr-xr-x) Uid: ( 1000/ user) Gid: ( 1000/ user)
$
$
$ find test -perm 4000
$ find test -perm 2000
$
Run Code Online (Sandbox Code Playgroud)
问题:那么真相是什么?我怎样才能真正列出所有的 SUID/SGID 文件?
我们可以从nginx日志中看到有一个IP地址在做一些讨厌的事情。
我们如何使用pf
命令阻止它,然后使用/etc/pf.log
? 我们如何阻止x.x.x.x/24
该 IP 的 a?例如:1.2.3.4
更新:不,看起来 OpenBSD 在 /etc 中没有允许/拒绝文件。AFAIK 阻止滥用 IP 地址的最佳建议是使用 pf。
# cd /etc
# ls -la|egrep -i 'deny|allow'
# uname -a
OpenBSD foo.com 5.4 GENERIC.MP#0 amd64
#
Run Code Online (Sandbox Code Playgroud) 之前(INPUT.txt):
Foo#1 Foo#2 Foo#3 Foo#4 Foo#4 Foo#5 SUM
Bar#1 0 0 0 0 3 0 3
Bar#2 2 0 1 0 0 0 3
Bar#3 0 0 0 2 2 0 4
Bar#4 0 0 1 1 2 0 4
Bar#5 1 0 1 0 0 0 2
Bar#6 3 20 0 0 1 0 24
Bar#7 1 0 2 0 0 0 3
SUM 7 20 5 3 8 0 43
Run Code Online (Sandbox Code Playgroud)
之后(OUTPUT.txt):
Foo#2 Foo#4 Foo#1 Foo#3 Foo#4 Foo#5 SUM …
Run Code Online (Sandbox Code Playgroud) 我在桌面上使用 Linux,但在使用 Virustotal 检查我的机器上的随机 PDF 文件后,我感到很惊讶。其中一个包含“PDF.Exploit.CVE_2008_2992”。因此,PDF 文件中可能包含恶意内容。
问题:如何“消毒”PDF 文件?我正在考虑将 PDF 文件转换为 PDF 文件(也许删除其中的 javascript?)。
默认情况下,在 UNIX 机器上安装时,我可以看到日志是用 gzip 旋转的。
问题:为什么 UNIX 世界默认不使用 7z?它会比gzip更有效率..
我只是压缩了一个包含许多 HTML 文件的目录。
7z:1.8 兆字节
压缩包:440 兆字节