我想捕获UNIX进程的输出,但限制最大文件大小和/或旋转到新文件.
我见过logrotate,但它不能实时工作.据我了解,这是一项并行运行的"清理"工作.
什么是正确的解决方案?我想我会编写一个小脚本来完成它,但我希望现有的文本工具有一个简单的方法.
想像:
my_program | tee --max-bytes 100000 log/my_program_log
会给...总是将最新的日志文件写为:log/my_program_log
然后,当它填充...重命名为log/my_program_log000001并启动一个新的log/my_program_log.
给定gzipS3 中的一个大对象,python3/boto3 中用于解压缩数据并将结果存储回另一个 S3 对象的内存高效(例如流)方法是什么?
之前有一个类似的问题。但是,所有答案都使用一种方法,其中 gzip 文件的内容首先读入内存(例如ByteIO)。对于太大而无法放入主内存的对象,这些解决方案是不可行的。
对于大型 S3 对象,内容需要被读取、“动态”解压缩,然后写入不同的 S3 对象是某种分块方式。
预先感谢您的考虑和回应。