我们进行大部分开发的 Solaris 机器有一个令人讨厌的习惯,即超时 SSH 会话。不管客户端是我的 Ubuntu 桌面、我的 Solaris 桌面还是我的 Windows 桌面(腻子);共同因素是大型 Solaris 机器。
我能做些什么来阻止这种情况发生吗?当您午休时很烦人,并且您打开并精心配置的终端会话都被冻结了,因此您需要将它们全部杀死并重新建立您的所有上下文。
最近的问题之一是关于在服务器上使用 Solaris 的潜在原因。我想问一下相反的:
在服务器上远离 Solaris 的原因是什么?
我想到了包和补丁管理,但我相信还有更多。您还可以指出其他服务器操作系统相对于 Solaris 的优势。
我们的 SPARC 服务器运行的是 Sun Solaris 10;我想找出处理器的实际数量和每个处理器的核心数量。
psrinfo 和 prtdiag 的输出不明确:
$psrinfo -v
Status of virtual processor 0 as of: dd/mm/yyyy hh:mm:ss
on-line since dd/mm/yyyy hh:mm:ss.
The sparcv9 processor operates at 1592 MHz,
and has a sparcv9 floating point processor.
Status of virtual processor 1 as of: dd/mm/yyyy hh:mm:ss
on-line since dd/mm/yyyy hh:mm:ss.
The sparcv9 processor operates at 1592 MHz,
and has a sparcv9 floating point processor.
Status of virtual processor 2 as of: dd/mm/yyyy hh:mm:ss
on-line since dd/mm/yyyy hh:mm:ss.
The …
Run Code Online (Sandbox Code Playgroud) 希望利用闲置的旧服务器作为概念验证...以下是 Dell PE 2900 的规格:至强 5110 - 2P、12 GB RAM、8 个 300 GB 15K 驱动器、Perc 5i+256 MB 缓存
服务器和主机上需要哪些额外的硬件?1GB 网卡,1GB 交换机?
有 4 个 ESX 服务器可以连接到此存储服务器(iSCSI 或 NFS)
推荐什么软件?开源软件?Nexenta 社区版?自由NAS?
感谢任何指向指南、教程的链接。
马鲁蒂
我正在构建一个 Solaris NAS 系统,目前我们有两个驱动器,并计划在以后再添加两个(2TB 企业级 HDD 有点贵!)。
记住我想在未来扩展,设置这些驱动器的最佳配置是什么?
我正在考虑镜像驱动器,然后转换为 raidz 一些如何?
最多只能有 4 个驱动器,其中后两个将在以后购买。
有任何想法吗?
我在家里有一个简单的 ZFS 设置,四个磁盘镜像,8GB 内存和 120GB 英特尔 X25-M SSD 用于 L2ARC。我运行zpool add poolname cache cXtXdX
然后生成负载并通过运行zpool iostat -v mypool
. 几个小时后,L2ARC 已满,但究竟缓存了什么?
我可以窥视一下我的 ARC/L2ARC 中有什么吗?我知道某些块会映射到多个文件系统(由于快照、克隆或重复数据删除),但我仍然想对以下统计数据进行采样:
我想 zdb 和/或 dtrace 将是日常工具,但真的不知道从哪里开始。
从 Solaris 10 ZFS v22 复制到 FreeBSD 8.3 ZFS v28 是否安全?
是否有人使用特定版本的 ZFS 完成了此操作,并且可以完美运行?
我编写了 active.ksh 脚本(基于expect),以便自动登录到某些 Solaris 机器并执行主机名命令(登录到虚拟 IP 以验证哪个主机名是活动机器 - 我有两个集群 solaris 机器)
问题在于expect
; 期望发送密码字符串 (pass123) 并且它错过了密码问题,它仍然等待密码。
所以实际上密码(pass123)是在密码问题之后输入的。在大多数情况下,expect 脚本工作正常,但有时会错过密码。
问题示例
./active.ksh
spawn ssh 10.10.18.61
sh: /usr/local/bin/stty: not found
This computer system, including all related equipment, networks and network devices (specifically including Internet access),is provided only for authorized uss
Password: * my remark - pass123 string was missed the Password Question pass123
Password:
Run Code Online (Sandbox Code Playgroud)
#!/bin/ksh
VIP_ADDRESS=10.10.18.61
expect_for_verify_which_active_machine=`cat << EOF
set timeout -1
spawn ssh $VIP_ADDRESS
expect {
")?" { send "yes\r" …
Run Code Online (Sandbox Code Playgroud) 我正在尝试使用 SSH 密钥设置从 ServerA(SunOS)到 ServerB(一些带有键盘交互登录的自定义 Linux)的访问权限。作为概念证明,我能够在 2 个虚拟机之间进行。现在在我的现实生活场景中它不起作用。
我在 ServerA 中创建了密钥,将它们复制到 ServerB,在 ServerA、B 上将 .ssh 文件夹修改为 700。
这是我得到的日志。
debug1: SSH2_MSG_KEXINIT sent
debug1: SSH2_MSG_KEXINIT received
debug1: kex: server->client aes128-ctr hmac-md5 none
debug1: kex: client->server aes128-ctr hmac-md5 none
debug1: Peer sent proposed langtags, ctos:
debug1: Peer sent proposed langtags, stoc:
debug1: We proposed langtags, ctos: en-US
debug1: We proposed langtags, stoc: en-US
debug1: SSH2_MSG_KEX_DH_GEX_REQUEST sent
debug1: expecting SSH2_MSG_KEX_DH_GEX_GROUP
debug1: dh_gen_key: priv key bits set: 125/256
debug1: bits set: 1039/2048
debug1: SSH2_MSG_KEX_DH_GEX_INIT sent …
Run Code Online (Sandbox Code Playgroud) 我有一个 zpool,我刚刚更换了一个故障磁盘,并开始重新同步到新磁盘。
我不明白的是,zpool status
当 vdev 的大小为 ~30TB 时,为什么说它要扫描 129TB。当我查看时,iostat -nx 1
我可以看到 vdev 中的 5 个磁盘读取量很大,而新磁盘的写入量也很大。所以 zfs 不会像它所说的那样扫描所有数据。
# zpool status tank3 |head
pool: tank3
state: ONLINE
status: One or more devices is currently being resilvered. The pool will
continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
scan: resilver in progress since Thu Apr 30 09:59:15 2015
61.2T scanned out of 129T at 3.03G/s, 6h23m to go
946G resilvered, 47.34% …
Run Code Online (Sandbox Code Playgroud) solaris ×10
zfs ×5
ssh ×3
linux ×2
dtrace ×1
expect ×1
filesystems ×1
freebsd ×1
hard-drive ×1
hardware ×1
multi-core ×1
omnios ×1
raidz ×1
replication ×1
sparc ×1
ssd ×1
ssh-keys ×1
storage ×1
sun ×1
timeout ×1
vmware-esx ×1
zfs-l2arc ×1