我想知道是否可以编写一个脚本来监视文件中的更改并在检测到更改时执行某些操作。
详细解释:
我的系统在 nano 会话中因未保存的更改而崩溃。
当我通过 SSH 重新登录时,当我执行ps.
davidparks21@devdb1:/opt/frugg_batch$ ps -ef | grep nano
1001 31714 29481 0 18:32 pts/0 00:00:00 nano frugg_batch_processing
1001 31905 31759 0 19:16 pts/1 00:00:00 grep --color=auto nano
davidparks21@devdb1:/opt/frugg_batch$
Run Code Online (Sandbox Code Playgroud)
有没有办法让我在新终端中控制纳米进程?
或者有什么方法可以强制它远程保存(从我的新终端)?
我正在设置一个服务器机架,其中将有 2 个网络服务器和 10 个提供后端应用程序支持的内部服务器(从 AWS 环境迁移)。我们将在机器上运行虚拟机实例。
在我使用过的大多数企业网络配置中,他们使用双主网络服务器,因此一个 NIC 位于 DMZ 网络上,另一个位于内部(非互联网可路由)网络上。
对于较小的 12 台服务器配置,安全优势是否真的足以保证 DMZ 中的两个网络和双宿主主机?该应用程序是一个任务关键型 Web 应用程序。
需要考虑的最后一个好处是,如果内部网络的带宽饱和,DMZ 网络可能不会受到影响(1Gbit 接口,我们可以将 2Gbit 接入支持 1.5Gbit 状态吞吐量的防火墙),单独的网络可以降低风险。
所以最终这就是我们正在谈论的我认为:

我正在http通过wget1.2TB下载一个大文件。下载大约需要一个星期,现在已经包含了两次损坏(md5 检查失败,它需要数天才能自行运行)。
有没有一种好方法可以使用 say 来通过 http 验证文件的零碎curl?或者将其分解为单独的块,以便我可以识别特定的坏块并仅重新下载该部分?
该文件是一个tar档案,所以我相信在解包过程中可以按顺序识别每个块的损坏。
我正在尝试配置rclone访问谷歌云存储桶(它恰好由 terra.bio 管理。我的rclone配置如下:
[terra]
type = google cloud storage
object_acl = private
bucket_acl = private
token = {"access_token":"XXXXX","token_type":"Bearer","refresh_token":"XXXXX","expiry":"XXXXXX"}
Run Code Online (Sandbox Code Playgroud)
我尝试过设置authenticatedRead,private但得到相同的结果。
我看到的错误消息是:
2022/08/13 18:24:44 Failed to copy: googleapi: Error 400: Cannot insert legacy ACL for an object when uniform bucket-level access is enabled. Read more at https://cloud.google.com/storage/docs/uniform-bucket-level-access, invalid
Run Code Online (Sandbox Code Playgroud) 我正在运行一个 kubernetes 作业,删除它,然后快速连续地重新启动它。
我正在使用以下命令获取与我的工作相关的 pod,以便我可以运行kubectl logs $POD.
kubectl get pods -l job-name=myjob --output=jsonpath='{.items[*].metadata.name}'
Run Code Online (Sandbox Code Playgroud)
但是在删除作业后,上述命令会返回两个 Pod,一个尚未删除,另一个是新的。
kubectl describe jobs/myjob 显示正确的 pod 名称,我可以从那里的文本中解析它,以便我获得最近开始的作业的唯一 pod 名称,但这似乎很糟糕。
有没有更好的方法可以从特定作业中获取 pod 名称?
linux ×3
bash ×2
amazon-s3 ×1
curl ×1
dmz ×1
files ×1
firewall ×1
http ×1
kubernetes ×1
large-data ×1
networking ×1
openvpn ×1
pid ×1
security ×1
terminal ×1