我想让 apache 做到这一点 >
mydomain.com:80 --- opens var/www1
mydomain.com:81 --- opens var/ww2
mydomain.com:82 --- opens var/www3
Run Code Online (Sandbox Code Playgroud)
问题是我不知道这些端口是否在 Linux 上打开(我如何检查?)
如果它们不是,我如何在防火墙中打开它们并让 apache 收听?
我试过这样做
> iptables -A RH-Firewall-1-INPUT -m NEW -m tcp -p tcp –dport 81 -j ACCEPT
iptables v1.3.5: Couldn't load match `NEW':/lib64/iptables/libipt_NEW.so: cannot open shared object file: No such file or directory
Run Code Online (Sandbox Code Playgroud)
我检查了端口......看起来httpd正在监听......但我不知道为什么我无法点击我的URL
> netstat -tulpn | less
tcp 0 0 :::80 :::* LISTEN 6840/httpd
tcp 0 0 :::81 :::* LISTEN 6840/httpd
tcp 0 0 :::82 :::* LISTEN 6840/httpd
Run Code Online (Sandbox Code Playgroud) 我刚刚迁移到 UNIX 工作站。我对 Bash shell 脚本的记忆从学校开始就消失了,我发现语法非常混乱。我想知道还有哪些其他脚本语言用于自动执行任务。我听说过的两个最流行的是 Perl 和 Python。
请解释设置 SQL Server 链接服务器需要什么。
服务器 A 仅用于 SQL 2005 Windows 登录。服务器 B 是相同的(仅限 SQL 2005 Windows 登录)。
服务器 A 运行 Windows XP。服务器 B 运行 Windows Server 2003。
两个 SQL Server 服务都在同一个域帐户下运行。我使用在两个 SQL Server 上都具有管理权限的域帐户登录到我的工作站。
请注意,这些都是 SQL Server 2005 SP2 - 我已经向我指出了旧的修补程序,但它们已经被应用。
我遇到的问题是这个错误:
“用户‘NT AUTHORITY\ANONYMOUS LOGON’登录失败。(Microsoft SQL Server,错误:18456)”
我想知道 rsync 是否有可能将一个目录一次性复制到多个远程目标,甚至并行复制。(不是必需的,但会很有用。)
通常,类似以下的内容会正常工作:
$ rsync -Pav /junk user@host1:/backup
$ rsync -Pav /junk user@host2:/backup
$ rsync -Pav /junk user@host3:/backup
Run Code Online (Sandbox Code Playgroud)
如果这是唯一的选择,我会使用它。然而,/junk 位于一个包含相当多文件的慢速驱动器上,与实际传输/更新相比,每次重建大约 12,000 个文件的文件列表非常缓慢(大约 5 分钟)。是否有可能做这样的事情,完成同样的事情:
$ rsync -Pav /junk user@host1:/backup user@host2:/backup user@host3:/backup
Run Code Online (Sandbox Code Playgroud) 我们有一个小型数据中心,大约有一百台主机指向 3 个内部 DNS 服务器(绑定 9)。当其中一台内部 DNS 服务器不可用时,我们的问题就出现了。那时所有指向该服务器的客户端开始执行非常缓慢。
问题似乎是股票 Linux 解析器并没有真正具有“故障转移”到不同 DNS 服务器的概念。您可以调整它使用的超时和重试次数(并设置轮换,以便它可以在列表中工作),但无论使用什么设置,如果主 DNS 服务器不可用,我们的服务执行速度会慢得多。目前,这是我们服务中断的最大来源之一。
我的理想答案是“RTFM:像这样调整/etc/resolv.conf...”,但如果这是一个选项,我还没有看到。
我想知道其他人是如何处理这个问题的?
我可以看到 3 种可能的解决方案:
使用 linux-ha/Pacemaker 和故障转移 IP(因此 DNS IP VIP“始终”可用)。唉,我们没有良好的围栏基础设施,没有围栏起搏器不能很好地工作(根据我的经验,没有围栏的 Pacemaker 会降低可用性)。
在每个节点上运行本地 DNS 服务器,并将 resolv.conf 指向 localhost。这会奏效,但它会给我们更多的服务来监控和管理。
在每个节点上运行本地缓存。人们似乎认为 nscd “已损坏”,但 dnrd 似乎具有正确的功能集:它将 DNS 服务器标记为启动或关闭,并且不会使用“关闭”的 DNS 服务器。
Any-casting 似乎只在 IP 路由级别工作,并且依赖于服务器故障的路由更新。多播似乎是一个完美的答案,但 bind 不支持广播或多播,我能找到的文档似乎表明多播 DNS 更侧重于服务发现和自动配置,而不是常规 DNS 解析.
我错过了一个明显的解决方案吗?
我正在使用 Windows FTP 客户端连接到我的 Linux 机器。但是我没有看到任何更改 FTP 用户密码的命令。我怎样才能做到这一点?
我最近为我的 Debian 服务器购买了一个新的 16TB 硬盘。我首先通过我的类似 Ubuntu 的桌面在其上创建了一个分区 (gpt),对其进行了格式化 (ext4),并在其上 rsync 了旧数据。该磁盘现在可以使用,因此我将其插入到我的服务器中。现在开始一个我无法识别的奇怪的 I/O。
iotop -ao报告 3MB/s,Current DISK WRITE 但没有任何迹象表明是谁在执行此操作fatrace -c -t报告没有写入或读取,但如果我自己有touch一个文件,请报告它。dstat -tdD /dev/sdx --top-io报告每秒稳定的 3072k 写入,与 一致iotop,但也没有罪魁祸首,只是在i/o process应该有名称的地方有一个空白,但它确实确认了 I/O 操作是在所述磁盘上,这是我最初推断的它发出的噪音……现在我知道 iotop 标头显示的内容与 I/O 写入和/或从进程读取的总和之间可能存在不一致,如此处所述。但与之前的帖子相反,当时:
几个小时后(至少 10,不超过 20)噪音消失了,磁盘上不再有 3MB/s 的输入。
我的问题是:编写一些缓存系统、初始化表或类似的东西可以解释这个恒定的 3MB/s 写入 10-20 小时是否是正常行为(虽然我以前从未观察到过)(可能来自内核?) ?
我最初想到的是加密/随机病毒,但即使以 3MB/s 的速度运行 20 小时也不可能覆盖 16 个可用磁盘上写入的 12TB。
这有什么合乎逻辑的解释吗?
我已将我的应用程序部署到 AWS EC2 上,并且我想实现自动化,如果我重新启动我的实例或当 Nginx Web 服务器关闭时,它会自行重新启动。我真的不知道从哪里开始。
我听说我可以使用 crontab 来安排自动监控,如果它关闭,它可以发送电子邮件警报并重新启动网络服务器。
我需要登录到远程 Win7 或 Vista 计算机,但是当我连接时,我收到一条登录消息“另一个用户当前已登录...”但它没有指定谁。
我在计算机上有一个具有管理员权限的域用户名,我怎样才能看到谁登录了?
我为某人创建了网站,但也有人(我猜是 SEO 人员)告诉此人我犯了一个大错误,因为域(mx、SPF、dmarc)上缺少 DNS 记录。现在我需要“修复”我的错误。
事情是,当然,这些记录用于电子邮件目的,但此域中没有电子邮件(只是简单的免费 Gmail 帐户)。
那么,是否有任何理由添加这些记录呢?他们应该是什么样子?我能想到的唯一原因是使用我的域身份防止垃圾邮件。但是我认为如果这些记录丢失,垃圾邮件过滤器无论如何都不会从我的域中传递电子邮件,那么有什么意义呢?