Solaris、blastwave、openCSW、Sunfreeware 和 pkgsrc 的附加软件包有多种来源。理想情况下,我希望尽可能使用单一的包装系统,那么您会推荐我使用其中的哪一个?或者,我应该忽略它们,然后自己动手吗?
这是我的场景:我有两台服务器(还有更多,但本场景有两台),一台是 Solaris 备份服务器,第二台是 CentOS Linux 服务器。每天晚上,CentOS 服务器都会运行一个 cron 作业来将自身同步到 Solaris 备份服务器。完成此操作后,它会将日期和时间放入 Solaris 服务器上的一个特殊文件中。Solaris 服务器每分钟运行一个 cron 作业,如果它看到这个文件,它就会抓取内容并使用它来制作快照。
结果很棒:每天备份都会自动运行,然后创建 ZFS 快照。工作了两个多月。我原以为现在空间不足,需要开始(手动)删除旧快照。但事实上,我在空间上很好。我唯一担心的是,随着每天增加 60 多个快照,大量 ZFS 快照是否存在任何已知问题?ZFS 文件系统可以拥有的 ZFS 快照数量是否有上限?或者我可以继续积累快照直到空间不足?
我正在使用 SMF 来管理 Solaris10 下的服务。
该服务本身就是一个进程管理器,并分叉出许多子进程,其中一些子进程偶尔会死亡(或因各种原因被杀死)。服务流程本身非常健壮,但永远不会消亡。
我遇到的问题是,当我使用 KILL 信号手动杀死这些子进程之一时,SMF 将重新启动主服务:
[ Aug 27 08:07:06 Stopping because process received fatal signal from outside the service. ]
有没有一种方法可以配置 SMF 或服务清单,以便在服务子进程之一被终止时 SMF不会终止服务?
TIA
我想为我的服务器上的数据丢失提供保护。
通常,我会使用硬件 RAID 1 或 5,但我一直在阅读ZFS。
ZFS 本身提供 RAID 1 或 5 之类的数据保护而无需 RAID 控制器卡是否正确?
如果是这样,我认为单个硬盘驱动器不足以提供数据保护,因为如果该驱动器出现故障,所有数据都会失败,那么我需要运行多少个硬盘驱动器才能让 ZFS 提供这种保护?
可能的重复:
sudo -i 和 sudo su - 有什么区别
我知道这两个命令都会导致获得 root-shell。但也有一些区别。在某些服务器上,例如提示不同:
nomike@testerver:~> sudo -i
root@testerver:~> logout
nomike@testerver:~> sudo su -
[root@testerver ~]#
Run Code Online (Sandbox Code Playgroud)
所以我猜“.bashrc”、“.bash_profile”和“.profile”的处理方式有些不同。
一个会调用登录 shell 而另一个不调用吗?
我在 Solaris 11.1 中有一个 10 磁盘的 RAIDZ。它通过8G光纤连接。我创建了一个 ZVOL,将其与 COMSTAR 一起使用,并将其安装在另一台通过光纤连接的机器上。当我用大文件对它进行基准测试时,我得到了大约 700MB/s 的读取和大约 150MB/s 的写入。这是平均的。仔细检查后,读取速度完全稳定,但写入速度从 50MB/s 一直下降到 400MB/s。
我知道 ZVOL 使用同步写入,但我是否应该获得这么慢的写入速度并看到这种波动?我觉得我应该在没有 ZIL 的情况下写得更好(或至少是一致的)。
我在solaris 10中有一个“门”类型的文件(这是一种进程间通信的方式)。它以某种方式遗留下来,我想摆脱它。我不能只用 rm 删除它...
ls -l
total 0
Dr--r--r-- 1 root root 0 Oct 12 2012 name_service_door
# rm name_service_door
rm: name_service_door not removed: Device busy
# lsof name_service_door
Run Code Online (Sandbox Code Playgroud)
显然某些进程仍在使用它。但是, lsof 不显示任何内容。来自“ps -elf”的人也不清楚是谁在使用它。我怎样才能摆脱这个文件?
更新:我重新启动服务器,这当然杀死了所有进程,从而释放了文件。然后我可以删除它。但是,我仍然有兴趣知道如何在不重新启动的情况下执行此操作(在生产环境中,这并不总是一种选择)。
我正常的 ZFS 文件系统构建过程可能类似于:
zpool create vol1 -o autoexpand=on -o autoreplace=on mirror nvme0n1 nvme1n1 -f
zfs set compression=lz4 vol1
zfs set atime=off vol1
zfs set xattr=sa vol1
zfs set acltype=posixacl vol1
zfs create vol1/data -o mountpoint=/data
Run Code Online (Sandbox Code Playgroud)
ZFS 似乎允许使用该-o
标志在文件系统和池创建中设置选项。但是,在许多情况下,我需要在顶层设置文件系统参数(用于新文件系统的继承),而不是在本地定义。
有没有办法将多zfs set parameter=value
行简化为单个命令行?
我们有一个 Exabyte Mammoth-2 磁带驱动器连接到 Solaris 10 盒,目前能够恢复任何 Exabyte 媒体没问题,但我们还有另外两个品牌的 8mm 磁带显示为“非法磁带”并由磁带驱动器本身弹出.
据我了解,Exabyte Mammoth-2 只能读取 AME 格式。但是,我找不到任何关于支持 Maxell 和 3M 磁带的信息(甚至它们开始时的格式)。
对此事的任何帮助都非常感谢。
所以我有一个三星 250GB 850 EVO SSD 和一个 500GB 860 EVO SSD。我正在考虑将 Solaris 用于该服务器(因此看看是否可以使用 ZFS 执行此操作)。是否可以在 500GB SSD 上使用 250GB 分区镜像 250GB SSD,同时让 500GB 驱动器的另一半可用(它会很少使用,所以不太担心性能下降)?
solaris ×10
zfs ×5
freebsd ×2
linux ×2
backup ×1
bash ×1
filesystems ×1
ipc ×1
openindiana ×1
opensolaris ×1
packaging ×1
partition ×1
performance ×1
raid ×1
smartos ×1
smf ×1
snapshot ×1
solaris-10 ×1
ssd ×1
su ×1
sudo ×1
tape ×1
tapedrive ×1
unix ×1