我如何告诉 Jenkins 在特定奴隶上运行特定项目?
我已经设置了一个 Jenkins 主节点和一个我想用于暂存应用程序的从节点。但是我不知道如何配置项目以在我创建的从节点上运行。
我已经使用 pip 安装了一个 Python 包,它是 easy_install 的替代品。如何获取与此软件包关联的已安装文件的列表?
基本上,我正在寻找等效于的 Python 包
dpkg -L
Run Code Online (Sandbox Code Playgroud)
或者
rpm -ql
Run Code Online (Sandbox Code Playgroud) 有时我的服务器会在“顶级”程序中显示高平均负载(例如,4 核机器上的负载约为 10),但实际 CPU 使用率并不是特别高。
我认为问题在于有许多 I/O 密集型作业正在运行。如果顶部的“%CPU”值不是那么高,是否有任何简单的方法可以识别导致负载的这些作业?
操作系统限制 Unix 域套接字的路径长度。如何检查特定路径是否在该限制内?
或者,换句话说,如何在 Linux 或 Mac OS X 系统上检查 Unix 域套接字路径的最大允许长度?
我的用例是 SSH 多路复用:如果 ControlPath 太长,则 SSH 多路复用将无法工作,因为它会创建一个 unix 域套接字。我希望能够检查有效的控制路径,而不必实际启动 ssh 会话并查找错误消息。
我正在尝试使用多 VM vagrant 环境作为部署 OpenStack 的测试平台,并且在尝试从一个 VM 到 VM-inside-of-a-VM 进行通信时遇到了网络问题。
我有两个 Vagrant 节点,一个云控制器节点和一个计算节点。我正在使用仅主机网络。我的 Vagrantfile 看起来像这样:
Vagrant::Config.run do |config|
config.vm.box = "precise64"
config.vm.define :controller do |controller_config|
controller_config.vm.network :hostonly, "192.168.206.130" # eth1
controller_config.vm.network :hostonly, "192.168.100.130" # eth2
controller_config.vm.host_name = "controller"
end
config.vm.define :compute1 do |compute1_config|
compute1_config.vm.network :hostonly, "192.168.206.131" # eth1
compute1_config.vm.network :hostonly, "192.168.100.131" # eth2
compute1_config.vm.host_name = "compute1"
compute1_config.vm.customize ["modifyvm", :id, "--memory", 1024]
end
end
Run Code Online (Sandbox Code Playgroud)
当我尝试启动一个(基于 QEMU 的)VM 时,它在计算 1 上成功启动,并且它的虚拟网卡 (vnet0) 通过桥接器 br100 连接:
root@compute1:~# brctl show 100
bridge name bridge …Run Code Online (Sandbox Code Playgroud) 我以前使用过 IPMI,但仅在 IPMI 接口具有专用以太网端口的服务器上使用。我有一个带有两个以太网卡的 Ubuntu 10.04 服务器,上面应该有一个 IPMI 接口(主板是Supermicro H8DMR-I2)。据我了解,IPMI 接口搭载在两个 NIC 之一上。
有什么方法可以告诉我 IPMI 接口搭载在哪个 NIC 上?使用 ipmitool 我尝试在 eth0 的子网的 IPMI 接口上设置 IP 地址,然后为 eth1 的子网设置 IP 地址,但它永远无法访问。
(你甚至可以从它搭载的同一个 NIC 访问 IPMI 接口,或者你是否需要尝试从网络上的不同机器连接?)
另外,我需要做什么特别的事情来启用它吗?我可以使用“ipmitool”在本地访问 IPMI 接口。
以下是固件详细信息:
# ipmitool mc info
Device ID : 34
Device Revision : 1
Firmware Revision : 1.50
IPMI Version : 2.0
Manufacturer ID : 10437
Manufacturer Name : Peppercon AG
Product ID : 4 (0x0004)
Product Name : Unknown (0x4) …Run Code Online (Sandbox Code Playgroud) 我有一个多宿主 Ubuntu 服务器,其中包含一组接口:
eth2: 10.10.0.131/24
eth3: 10.20.0.2/24
Run Code Online (Sandbox Code Playgroud)
默认接口为 eth2,网关为 10.10.0.1。下面是路由表的样子:
root@c220-1:~# netstat -rn
Kernel IP routing table
Destination Gateway Genmask Flags MSS Window irtt Iface
0.0.0.0 10.10.0.1 0.0.0.0 UG 0 0 0 eth2
10.10.0.0 0.0.0.0 255.255.255.0 U 0 0 0 eth2
10.20.0.0 0.0.0.0 255.255.255.0 U 0 0 0 eth3
10.30.0.0 0.0.0.0 255.255.255.0 U 0 0 0 eth0
10.40.0.0 0.0.0.0 255.255.0.0 U 0 0 0 eth1
Run Code Online (Sandbox Code Playgroud)
从单独的网络 ( 192.168.3.5/24) 我可以通过 eth2 接口(具有默认网关的接口)访问这台机器,但不能通过 eth3 接口访问。我可以毫无问题地从同一网络 (10.20.0.1) 上的路由器 ping eth3 接口。
如果我从 …
在 /etc/fstab 中指定 NFS 挂载点时,addr 选项的目的是什么?例如:
192.168.1.5:/home /home nfs rw,addr=192.168.1.5 0 0
Run Code Online (Sandbox Code Playgroud) 有人通过描述如何使用源策略路由创建新的路由表来回答我之前的问题:
echo 13 eth3 >> /etc/iproute2/rt_tables
ip route add default via 10.20.0.1 table eth3
ip rule add from 10.20.0.2 lookup eth3
Run Code Online (Sandbox Code Playgroud)
如何使这些“ip”命令在重新启动后持续存在?我假设有一些适当的行要添加到/etc/network/interfaces. 这是马上(向界面添加“向上”行),还是有其他方法可以做到?
iface eth3 inet static
address 10.20.0.2
netmask 255.255.255.0
up ip route add default via 10.20.0.1 table eth3
up ip rule add from 10.20.0.2 lookup eth3
down ip rule del from 10.20.0.2 lookup eth3
down ip route del default via 10.20.0.1 table eth3
Run Code Online (Sandbox Code Playgroud)
(我在 Ubuntu 12.04 上)。
是否有任何解决方案可以让您远程运行 GPU 加速的 OpenGL 应用程序,假设:
特别是,这是否可以使用 Microsoft 远程桌面客户端通过 RDP?
据我所知,Microsoft 的 RemoteFX 技术仅对 DirectX 进行 3D 加速,而不会对 OpenGL 进行 3D 加速。VirtualGL+VNC 适用于 Linux,但据我所知没有 Windows 端口。