Jenkins奴隶在构建期间脱机.我怎么能解决这个问题,我在SO和Jenkins问题中看到了很多相关问题,但没有人给出解决方案.
我的配置:
Jenkins版本1.651.1,Zuul版本2.1.1.dev393与一个Jenkins主站(Ubuntu),2个从站(Ubuntu)各有16GB的RAM并行运行构建.
Jenkins master,devstack和两个nodepool从站都在相同的IP范围内.
我遇到一个问题,当一个奴隶完成它的构建然后两个奴隶中的java进程被杀死所以其他奴隶脱机.
我通过列出从站中运行的进程发现了这个问题,并观察到当一个从站完成其构建而另一个从站仍在运行构建时,Java进程在两个从站中同时被杀死.
以前我遇到过这个问题,通过从Open JDK切换到Oracle的JDK解决了这个问题.现在奴隶正在使用oracle java 1.8.0_111,但现在我们也遇到了与Oracle-java8相同的问题
构建日志:
01:42:07 Slave went offline during the build
01:42:07 ERROR: Connection was broken: java.io.IOException: Unexpected termination of the channel
01:42:07 at hudson.remoting.SynchronousCommandTransport$ReaderThread.run(SynchronousCommandTransport.java:50)
01:42:07 Caused by: java.io.EOFException
01:42:07 at java.io.ObjectInputStream$PeekInputStream.readFully(ObjectInputStream.java:2351)
01:42:07 at java.io.ObjectInputStream$BlockDataInputStream.readShort(ObjectInputStream.java:2820)
01:42:07 at java.io.ObjectInputStream.readStreamHeader(ObjectInputStream.java:804)
01:42:07 at java.io.ObjectInputStream.<init>(ObjectInputStream.java:302)
01:42:07 at hudson.remoting.ObjectInputStreamEx.<init>(ObjectInputStreamEx.java:48)
01:42:07 at hudson.remoting.AbstractSynchronousByteArrayCommandTransport.read( AbstractSynchronousByteArrayCommandTransport.java:34)
01:42:07 at hudson.remoting.SynchronousCommandTransport$ReaderThread.run(SynchronousCommandTransport.java:48)
01:42:07
01:42:07 Build step 'Execute shell' marked build as failure
Run Code Online (Sandbox Code Playgroud) 我没有openstack的经验,我很感激任何可以帮助和指导我解决这个问题的人.我正在虚拟环境中安装openstack(Ubuntu 12.04),这就出现了:
- 克隆git // git.openstack.org/openstack/requirements.git/opt/stack/reqiurements克隆到'/ opt/stack/requirements'...致命:无法连接到git.openstack.org:git.openstack .org [0:192.237.223.224]:错误=连接拒绝git.openstack.org [1:2001:4800:7813:516:3bc3:d7f6:ff04:aacb]:错误=网络无法访问
我正在尝试建立一个可以启动nova实例的最小devstack,一些将具有公共地址,一些将需要打开到公共网络的连接.我希望能够为实例分配浮动ips,并使来自具有公共地址的实例的流量到达公共网络.
Devstack将在一个带有两个物理接口的Ubuntu 14.04盒子上运行.第一个接口eth0是在10.48.4.0/22,我拥有地址10.48.6.232; 这是与盒子的管理连接.第二个接口eth1是10.48.8.0/22,拥有地址10.48.11.6和10.48.11.57-10.48.11.59.eth1配置为使用10.48.11.6地址,为浮动范围留下一小段地址.
auto eth1
iface eth1 inet static
address 10.48.11.6
netmask 255.255.252.0
Run Code Online (Sandbox Code Playgroud)
我想使用范围10.48.11.57-10.48.11.59作为浮动IP池.这构成了我的开始local.conf
[[local|localrc]]
# Devstack host IP eth1 address
HOST_IP=10.48.11.6
# Private network
FIXED_RANGE=10.90.100.0/24
NETWORK_GATEWAY=10.90.100.1
# Public network
Q_FLOATING_ALLOCATION_POOL=start=10.48.11.57,end=10.48.11.59
FLOATING_RANGE=10.48.8.0/22
PUBLIC_NETWORK_GATEWAY=10.48.8.1
# Public network is eth1
PUBLIC_INTERFACE=eth1
Run Code Online (Sandbox Code Playgroud)
我的相关部分的其余部分local.conf是配置neutron和ovs以使用公共网络.我按照评论中的说明进行操作neutron-legacy.
# Neutron
# -------
PUBLIC_BRIDGE=br-ex
Q_USE_PROVIDERNET_FOR_PUBLIC=True
PUBLIC_PHYSICAL_NETWORK=public
OVS_BRIDGE_MAPPINGS=public:br-ex
# Neutron Provider Network
ENABLE_TENANT_TUNNELS=True
PHYSICAL_NETWORK=public
OVS_PHYSICAL_BRIDGE=br-ex
# Use ml2 and openvswitch
Q_PLUGIN=ml2
Q_ML2_PLUGIN_MECHANISM_DRIVERS=openvswitch,logger
Q_AGENT=openvswitch
enable_service q-agt
# …Run Code Online (Sandbox Code Playgroud) 我在OpenStack安装中面临以下错误.连接仪表板URL时出现问题.
通过删除如下http://100.1.201.102:5000/identity之类的版本更改了openrc文件中的url .
但仍面临同样的问题.请让我知道错误发生在哪里.
INFO keystone.cmd.cli [req-412f0ceb-6b28-0bb1-b2scc-aae69e76ff7b - - - - -] Created domain default
INFO keystone.cmd.cli [req-412f0ceb-6b28-0bb1-b2scc-aae69e76ff7b - - - - -] Created project admin
DEBUG passlib.registry [req-412f0ceb-6b28-0bb1-b2scc-aae69e76ff7b - - - - -] registered 'sha512_crypt' handler: <class 'passlib.handlers.sha2_crypt.sha512_crypt'> register_crypt_handler /usr/lib/python2.7/site-packages/passlib/registry.py:284
INFO keystone.cmd.cli [req-412f0ceb-6b28-0bb1-b2scc-aae69e76ff7b - - - - -] Created user admin
INFO keystone.cmd.cli [req-412f0ceb-6b28-4bb1-b2cc-aae69e76ff7b - - - - -] Created role admin
INFO keystone.cmd.cli [req-412f0ceb-6b28-4bb1-b2cc-aae69e76ff7b - - - - -] Granted admin on admin to …Run Code Online (Sandbox Code Playgroud) 我试图在ubuntu 16.04上使用devstack安装openstack.我按照以下链接.
https://docs.openstack.org/developer/devstack/guides/single-machine.html
我跑的时候
sudo openstack服务列表
,它会提示以下错误.
缺少auth插件密码所需的auth-url值
我想用OpenStack Swift或Amazon S3的相同界面实现云存储服务.换句话说,我的云存储服务应公开上述服务的相同API,但具有自定义实现.这样,客户端就能够在不改变其实现的情况下与我的服务进行互操作.
我不知道是否有比从文件开始手动实现这样的接口比较简单的方法:http://docs.openstack.org/api/openstack-object-storage/1.0/content/ HTTP://docs.aws.amazon .COM/AmazonS3 /最新/ API/APIRest.html
例如,如果有一个OpenStack Swift或Amazon S3 API的"骨架",我可以从中开始实现我的服务.
谢谢
当主节点发生故障时,其IP(IPv6)将浮动到备用节点.备用节点应该在该IP上提供服务.
鉴于这两个节点共存于同一LAN中,通常可以看出备用节点变得无法访问.接口为UP和RUNNING,并分配了IPv6地址,但所有IP操作都已停止.
一种可能性是当IP配置为待机时,重复地址检测(DAD)正在开始.RFC表示必须停止所有IP操作.
我的问题是关于Linux内核IPv6实现的细节.以前,从内核代码来看,我认为必须设置sysctl变量"disable_ipv6".但是内核没有禁用IPv6,它只是停止该接口上的所有IP操作.
任何人都可以解释Linux内核IPv6在DAD失败时"禁用这些IP操作"时的作用吗?如果不进行DOWN&UP接口,可以重置为正常吗?代码中的任何指针都将非常有用.
network-programming ipv6 linux-kernel openstack openstack-nova
我正在尝试使用OpenStack配置Spark集群.目前我有两个名为的服务器
尝试使用这些浮动IP与标准公共IP时,我遇到了问题.
在spark-master机器上,主机名是spark-master,而/ etc/hosts看起来像
127.0.0.1 localhost
127.0.1.1 spark-master
Run Code Online (Sandbox Code Playgroud)
对spark-env.sh进行的唯一更改是export SPARK_MASTER_IP='192.x.x.1'.如果我运行,./sbin/start-master.sh我可以查看Web UI.
问题是我使用浮动IP 87.xx1查看Web UI,并在其中列出主URL:spark://192.xx1:7077.
从奴隶我可以运行./sbin/start-slave.sh spark://192.x.x.1:7077,它成功连接.
如果我尝试通过更改主服务器上的spark-env.sh来使用浮动IP,export SPARK_MASTER_IP='87.x.x.1'那么我会得到以下错误日志
Spark Command: /usr/lib/jvm/java-7-openjdk-amd64/bin/java -cp /usr/local/spark-1.6.1-bin-hadoop2.6/conf/:/usr/local/spark-1.6.1-bin-hadoop2.6/lib/spark-assembly-1.6.1-hadoop2.6.0.jar:/usr/local/spark-1.6.1-bin-hadoop2.6/lib/datanucleus-core-3.2.10.jar:/usr/local/spark-1.6.1-bin-hadoop2.6/lib/datanucleus-api-jdo-3.2.6.jar:/usr/local/spark-1.6.1-bin-hadoop2.6/lib/datanucleus-rdbms-3.2.9.jar -Xms1g -Xmx1g -XX:MaxPermSize=256m org.apache.spark.deploy.master.Master --ip 87.x.x.1 --port 7077 --webui-port 8080
========================================
Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
16/05/12 15:05:33 INFO Master: Registered signal handlers for [TERM, HUP, INT]
16/05/12 15:05:33 WARN Utils: Your hostname, spark-master resolves to …Run Code Online (Sandbox Code Playgroud) openstack ×10
devstack ×3
cloud ×2
amazon-s3 ×1
apache-spark ×1
api ×1
build ×1
git ×1
installation ×1
ip-address ×1
ipv6 ×1
java ×1
jenkins ×1
linux-kernel ×1
openvswitch ×1
python ×1
redhat ×1