上次更新后发生了这种情况:
/usr/lib/apt/methods/http: relocation error: /usr/lib/x86_64-linux-gnu/libgnutls.so.30: symbol _idn2_punycode_decode version IDN2_0.0.0 not defined in file libidn2.so.0 with link time reference
Reading package lists... Done
E: Method http has died unexpectedly!
E: Sub-process http returned an error code (127)
E: Method /usr/lib/apt/methods/http did not start correctly
Run Code Online (Sandbox Code Playgroud)
这是什么?我该如何解决?
最新的命令和得到的结果:
$ sudo apt-get update
Hit:1 http://archive.ubuntu.com/ubuntu bionic InRelease
Get:2 http://security.ubuntu.com/ubuntu bionic-security InRelease [88.7 kB]
Hit:3 http://ppa.launchpad.net/certbot/certbot/ubuntu bionic InRelease
Get:4 http://archive.ubuntu.com/ubuntu bionic-updates InRelease [88.7 kB]
Hit:5 http://ppa.launchpad.net/ondrej/apache2/ubuntu bionic InRelease
Get:6 http://ppa.launchpad.net/ondrej/php/ubuntu bionic InRelease [20.8 kB]
Get:7 …Run Code Online (Sandbox Code Playgroud) 如何使用fail2ban创建过滤器来阻止这些?
476 Mozilla/5.0 (compatible; BLEXBot/1.0; +http://webmeup-crawler.com/)
892 ltx71 - (http://ltx71.com/)
5367 Mozilla/5.0 (compatible; DotBot/1.1; http://www.opensiteexplorer.org/dotbot, help@moz.com)
6449 Barkrowler/0.9 (+http://www.exensa.com/crawl)
Run Code Online (Sandbox Code Playgroud)
这个列表来自于此:
sudo cat /var/log/apache2/access.log | awk -F\" '{print $6}' | sort | uniq -c | sort -n
Run Code Online (Sandbox Code Playgroud)
我试过 apache-badbot.conf,但它似乎不起作用......
我经常不得不向 apache-badbots.conf 文件添加新规则,每次我怀疑它不再有效时......
例如,这是我当前的 apache-badbots.conf 文件:
[Definition]
badbotscustom = MQQBrowser|LieBaoFast|Mb2345Browser|zh-CN|python-requests|LinkpadBot|MegaIndex|Buck|SemrushBot|SeznamBot|JobboerseBot|AhrefsBot|AhrefsBot/6.1|MJ12bot|info@domaincrawler.com|SemrushBot/6~bl|cortex|Cliqzbot|Baiduspider|serpstatbot|Go 1.1 package http|Python-urllib|StormCrawler|archive.org_bot|CCBot|BLEXBot|ltx71|DotBot|EmailCollector|WebEMailExtrac|Track$
badbots = Atomic_Email_Hunter/4\.0|atSpider/1\.0|autoemailspider|bwh3_user_agent|China Local Browse 2\.6|ContactBot/0\.2|ContentSmartz|DataCha0s/2\.0|DBrowse 1\.4b|DBrow$
#failregex = ^<HOST> -.*"(GET|POST|HEAD).*HTTP.*"(?:%(badbots)s|%(badbotscustom)s)"$
failregex = ^<HOST> -.*"(GET|POST).*HTTP.*".*(?:%(badbots)s|%(badbotscustom)s).*"$
ignoreregex =
datepattern = ^[^\[]*\[({DATE})
{^LN-BEG}
Run Code Online (Sandbox Code Playgroud)
昨天我添加了“MQQBrowser | LieBaoFast | Mb2345Browser | zh-CN”,今天我在访问日志中看到了很多 MQQBrowser 和 LieBaoFast。
sudo cat /var/log/apache2/access.log | awk -F\" '{print $6}' | sort | uniq -c | sort -n
...
3408 Mozilla/5.0(Linux;U;Android 5.1.1;zh-CN;OPPO A33 Build/LMY47V) AppleWebKit/537.36(KHTML,like Gecko) Version/4.0 Chrome/40.0.2214.89 UCBrowser/11.7.0.953 Mobile Safari/537.36
3418 Mozilla/5.0(Linux;Android 5.1.1;OPPO A33 Build/LMY47V;wv) AppleWebKit/537.36(KHTML,link Gecko) …Run Code Online (Sandbox Code Playgroud) 出于安全原因,我想通过 ssh 禁用 root 访问。
我创建了一个具有管理权限的新用户 (user1)。
adduser user1
usermod -aG sudo user1
Run Code Online (Sandbox Code Playgroud)
并将 /www 目录分配给该用户。
sudo chown -R $USER:$USER /var/www/
sudo chmod -R 755 /var/www
Run Code Online (Sandbox Code Playgroud)
(我的文件夹结构是 www/site1.com、www/site2.com 等)
我的网站需要写一些文件(比如sitemaps、rss feeds等)所以我把www目录的权限设置为:
sudo chown -R www-data:www-data /var/www
sudo chmod -R 755 /var/www
Run Code Online (Sandbox Code Playgroud)
但是,现在用户 user1 通过 shell 使用 sudo 命令完美工作,但不能再通过 sftp 添加/编辑/删除 /www 目录及其子目录中的文件和文件夹。
我阅读了很多指南,如何设置 apache 权限以提高安全性,与其他用户共享管理等等等等。
但我仍然不明白如何解决我的问题。
目前为了能够通过 sftp 处理我服务器上的文件,我必须使用 root 用户,以确保安全。
我是否错过了有关设置用户或文件夹权限的内容?