我最近发现 AVX2 没有 __m256i 的 popcount,我发现做类似事情的唯一方法是遵循 Wojciech Mula 算法:
__m256i count(__m256i v) {
__m256i lookup = _mm256_setr_epi8(0, 1, 1, 2, 1, 2, 2, 3, 1, 2,
2, 3, 2, 3, 3, 4, 0, 1, 1, 2, 1, 2, 2, 3,
1, 2, 2, 3, 2, 3, 3, 4);
__m256i low_mask = _mm256_set1_epi8(0x0f);
__m256i lo =_mm256_and_si256(v,low_mask);
__m256i hi = _mm256_and_si256( _mm256_srli_epi32(v, 4), low_mask);
__m256i popcnt1 = _mm256_shuffle_epi8(lookup,lo);
__m256i popcnt2 = _mm256_shuffle_epi8(lookup,hi);
__m256i total = _mm256_add_epi8(popcnt1,popcnt2);
return _mm256_sad_epu8(total,_mm256_setzero_si256());
}
Run Code Online (Sandbox Code Playgroud)
我目前正在设置一个 kubernetes 集群,在 3 个不同的虚拟机上有 3 个节点,每个节点由 1 个 pod 组成,运行以下 docker 镜像:ethereum/client-go:stable
问题是我想使用 bash 脚本进行运行状况检查测试(因为我必须测试很多东西),但我不明白如何将此文件导出到使用我的 yaml 部署文件部署的每个容器。
我尝试wget在 yaml 文件中添加命令以从我的 github 存储库下载健康检查脚本,但从我的角度来看它不是很干净,也许还有其他方法?
我当前的部署文件:
apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: goerli
name: goerli-deploy
spec:
replicas: 3
selector:
matchLabels:
app: goerli
template:
metadata:
labels:
app: goerli
spec:
containers:
- image: ethereum/client-go:stable
name: goerli-geth
args: ["--goerli", "--datadir", "/test2"]
env:
- name: LASTBLOCK
value: "0"
- name: FAILCOUNTER
value: "0"
ports:
- containerPort: 30303
name: geth
livenessProbe:
exec:
command:
- …Run Code Online (Sandbox Code Playgroud) 我有一个使用 rke 部署的 kubernetes 集群,由 3 个不同服务器中的 3 个节点组成,这些服务器中有 1 个运行 yatsukino/healthereum 的 pod,它是 ethereum/client-go:stable 的个人修改。问题是我不明白如何添加外部 ip 来向 pod 发送请求
我的 Pod 可能处于 3 种状态:
我不希望我的负载均衡器将请求转移到前两个状态,只有第三点才认为我的 Pod 是最新的。
我一直在 kubernetes 文档中搜索,但(可能是因为理解不够)我只找到了唯一节点内 pod 的负载平衡。
这是我的部署文件:
apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: goerli
name: goerli-deploy
spec:
replicas: 3
selector:
matchLabels:
app: goerli
template:
metadata:
labels:
app: goerli
spec:
containers:
- image: yatsukino/healthereum
name: goerli-geth
args: ["--goerli", "--datadir", "/app", "--ipcpath", "/root/.ethereum/geth.ipc"]
env:
- name: LASTBLOCK
value: "0"
- name: …Run Code Online (Sandbox Code Playgroud) 我目前正在尝试创建一组 X pod,每个都有一个个人持久卷。为此,我创建了一个StateFulSet带有 X 个副本的副本,并且PersistentVolumeClaimTemplate该部分正在工作。
问题是似乎不可能以与 a 相同的方式使用 LoadBalancer 公开那些 pod deployment(因为 pod 在 statefulset 中的唯一性)。
此刻我试图将它公开,因为一个简单的部署女巫不起作用,我发现的唯一方法是一个一个地公开每个豆荚(我没有测试过,但我在this上看到了它)但它是没有那么可扩展...
我没有在任何云提供商平台上运行 kubernetes,那么请避免使用独占命令行。
我目前正在创建 kubernetes 部署,在此部署中,我将副本值设置为 X,我想创建 X 卷,当相应的 pod 重新启动时,该卷不为空。我没有使用任何云提供商基础设施,那么请避免使用云服务的命令。
我一直在 kubernetes doc 中搜索答案,我的第一次尝试是为每个绑定到 pv 的 pod 创建一个巨大的持久卷和一个持久卷声明,但它似乎不起作用......
我的期望是有 X 卷不在 pod 之间共享,并且在 pod 因活跃度探测而被杀死时不会死亡。我知道任何可以做到这一点的可能性!