小编bSc*_*utt的帖子

Bamboo:如果作业被取消或失败,如何执行某些逻辑

我正在编写一个Bamboo插件,其中大部分是完整的.

该插件的工作原理是通过对服务器的post请求启动远程进程,然后轮询同一服务器,直到它收到一条消息,说明进程已完成或发生错误 - 此部分有效.

我想添加一些额外的逻辑,如果用户取消该作业,我可以通知该服务器,但是我不确定如何解决这个问题.

我已经开始创建另一个作为最终任务运行的任务,但是我不知道如何检测以前的任何任务是否失败或被取消.

我已经尝试使用List<TaskResult> taskResults = taskContext.getBuildContext().getBuildResult().getTaskResults();获取上一个任务结果的列表,但是这总是会返回0任务结果.

我也尝试过使用Post-Build完成的动作模块,但是我不确定如何将它添加到一个作业中,这方面的文档让我有些神秘.

如果有人能帮助我朝着正确的方向前进,我将不胜感激.

java bamboo

22
推荐指数
1
解决办法
1732
查看次数

在代理后面运行PHP SoapServer

我试图在代理后面运行PHP SoapClient和SoapServer(对于Magento),其中唯一允许的网络流量是通过代理服务器.

我有这个与客户一起工作如下:

$client = new SoapClient('https://www.domain.co.uk/api/v2_soap/?wsdl=1', [
    'soap_version' => SOAP_1_1,
    'connection_timeout' => 15000,
    'proxy_host' => '192.168.x.x',
    'proxy_port' => 'xxxx',
    'stream_context' => stream_context_create(
        [
            'ssl' => [
                'proxy' => 'tcp://192.168.x.x:xxxx',
                'request_fulluri' => true,
            ],
            'http' => [
                'proxy' => 'tcp://192.168.x.x:xxxx',
                'request_fulluri' => true,
            ],
        ]
    ),
]);
Run Code Online (Sandbox Code Playgroud)

这可以按预期工作 - 所有流量都通过代理服务器进行.

但是,使用SoapServer类,我无法弄清楚如何强制它通过SoapServer发送所有出站流量.它似乎试图直接从网络加载http://schemas.xmlsoap.org/soap/encoding/,而不是通过代理,这导致"无法从' http://schemas.xmlsoap导入模式.org/soap/encoding / '"抛出错误.

我已经尝试将schemas.xmlsoap.org的hosts文件条目添加到127.0.0.1并在本地托管此文件,但我仍然遇到同样的问题.

有什么我想念的吗?

php proxy soap magento

16
推荐指数
1
解决办法
589
查看次数

ElasticSearch/Logstash/Kibana如何处理日志流量中的峰值

处理标准ELK设置中写入ElasticSearch集群的日志消息激增的最佳方法是什么?

我们在AWS中使用标准ELK(ElasticSearch/Logstash/Kibana)设置来满足我们网站的日志记录需求.

我们在负载均衡器后面有一个自动缩放的Logstash实例组,该组记录到另一个负载均衡器后面的ElasticSearch实例的自动缩放组.然后我们有一个服务Kibana的实例.

对于日常业务,我们运行2个Logstash实例和2个ElasticSearch实例.

我们的网站在活动期间经历短时间的高流量 - 在这些活动期间,我们的流量增加了约2000%.我们提前知道这些事件.

目前,我们只是在事件期间临时增加ElasticSearch实例的数量.然而,我们遇到的问题是我们随后缩减得太快,这意味着我们丢失了碎片并损坏了我们的索引.

我一直在考虑将设置auto_expand_replicas设置为"1-all"确保每个节点都拥有所有数据的副本,因此我们无需担心扩展或缩小的速度.将所有数据传输到新节点的开销有多大?我们目前只保留大约2周的日志数据 - 总共大约50gb.

我还看到人们提到使用单独的自动缩放组的非数据节点来处理搜索流量的增加,同时保持数据节点的数量相同.这有助于处理繁重的情况,例如我之前提到过的事件吗?

elasticsearch logstash kibana

3
推荐指数
1
解决办法
1420
查看次数

标签 统计

bamboo ×1

elasticsearch ×1

java ×1

kibana ×1

logstash ×1

magento ×1

php ×1

proxy ×1

soap ×1