标签: kubernetes

OpenShift Origin 和 Ceph 持久卷

我已经从最新的 ansible 安装中安装了 OpenShift Origin。(CentOS 7 - 3 个主节点和 7 个节点)

[root@master-1 ~]# openshift version
openshift v1.1.0.1-1-g2c6ff4b
kubernetes v1.1.0-origin-1107-g4c8e6f4
etcd 2.1.2
Run Code Online (Sandbox Code Playgroud)

我正在尝试通过rbd 插件创建 CEPH 持久存储。我有工作 Ceph 集群,我从文档中遵循了 ceph 的官方指南:

https://docs.openshift.org/latest/install_config/persistent_storage/persistent_storage_ceph_rbd.html

我可以毫无问题地创建persistentVolume和persistentVolumeClaim,但是当kubernetes尝试挂载该卷时,它报这个错误:

FailedMount  {kubelet node-4} Unable to mount volumes for pod "php55-rzat2_xyz": unsupported volume type
Pod  FailedSync   {kubelet node-4}   Error syncing pod, skipping: unsupported volume type
Run Code Online (Sandbox Code Playgroud)

我已经安装了ceph在所有节点上 ceph-commonceph-fuse包(当然,我也在主节点上安装了它)。

PersistentVolume 按预期由persistentVolumeClaim 声明。

光伏配置文件:

apiVersion: v1
kind: PersistentVolume
metadata:
  name: "ceph-ssd-0000-11"
spec:
  capacity:
    storage: "1Gi" …
Run Code Online (Sandbox Code Playgroud)

ceph openshift-origin kubernetes

0
推荐指数
1
解决办法
780
查看次数

Kubernetes 和 kswapd0 是一对邪恶的夫妇?

我在 Debian 9 上使用 kubeadm 构建了一个裸机 kubernetes 集群(没什么重的,只有三台服务器)。就像 Kubernetes 询问的那样,我禁用了 SWAP:

  • 交换 -a
  • 删除 SWAP 行 /etc/fstab
  • 添加vm.swappiness = 0/etc/sysctl.conf

因此,我的服务器上不再有 SWAP。

$ free
              total        used        free      shared  buff/cache   available
Mem:        5082668     3679500      117200       59100     1285968     1050376
Swap:             0           0           0
Run Code Online (Sandbox Code Playgroud)

一个节点用于运行一些微服务。当我开始使用所有微服务时,它们每个都使用 10% 的 RAM。并且 kswapd0 进程开始使用大量 CPU。

如果我稍微强调一下微服务,它们就会停止响应,因为 kswapd0 使用了所有 CPU。我试着等待 kswapd0 停止他的工作,但它从未发生过。即使在 10 小时后。

我阅读了很多东西,但没有找到任何解决方案。

我可以增加 RAM 的数量,但这不会解决我的问题。

Kubernetes Masters 如何处理此类问题?

更多细节:

  • Kubernetes 1.15 版
  • 印花布 3.8 版
  • Debian 9.6 版

在此先感谢您的宝贵帮助。

-- 编辑 1 …

memory debian kubernetes

0
推荐指数
1
解决办法
1404
查看次数

Kubernetes 集群不应授予 CAPSYSADMIN 安全功能

在我们的 AKS 中,在 Azure 安全中心发现了与此相关的高严重性警报。

CAPSYSADMIN 的用途是什么?默认情况下 Pod 是否启用此属性?因为我们没有在 AKS 中专门启用它?那么这个警报的原因是什么?我们如何修复此警报?

azure kubernetes aks

0
推荐指数
1
解决办法
2030
查看次数

modprobe:致命:在目录中找不到模块 nf_conntrack_ipv4

任务 [kubernetes/节点:Modprobe nf_conntrack_ipv4] ********************************************* ********************************************** 致命:[节点1]:失败的!=> {“已更改”:false,“msg”:“modprobe:致命:在目录/lib/modules/5.4.0-91-generic\n中找不到模块nf_conntrack_ipv4”,“name”:“nf_conntrack_ipv4”,“params ": "", "rc": 1, "state": "present", "stderr": "modprobe: 致命: 在目录 /lib/modules/5.4.0-91-generic\n 中找不到模块 nf_conntrack_ipv4\n", "stderr_lines": ["modprobe: FATAL: 在目录 /lib/modules/5.4.0-91-generic 中找不到模块 nf_conntrack_ipv4"], "stdout": "", "stdout_lines": []} ...忽略致命:[节点2]:失败!=> {“已更改”:false,“msg”:“modprobe:致命:在目录/lib/modules/5.4.0-91-generic\n中找不到模块nf_conntrack_ipv4”,“name”:“nf_conntrack_ipv4”,“params ": "", "rc": 1, "state": "present", "stderr": "modprobe: 致命: 在目录 /lib/modules/5.4.0-91-generic\n 中找不到模块 nf_conntrack_ipv4\n", "stderr_lines": ["modprobe: FATAL: 在目录 /lib/modules/5.4.0-91-generic 中找不到模块 nf_conntrack_ipv4"], "stdout": "", "stdout_lines": []} ...忽略致命: [node3]: 失败!=> {“已更改”:false,“msg”:“modprobe:致命:在目录/lib/modules/5.4.0-91-generic\n中找不到模块nf_conntrack_ipv4”,“name”:“nf_conntrack_ipv4”,“params ": "", "rc": 1, "state": "present", "stderr": "modprobe: 致命: 在目录 /lib/modules/5.4.0-91-generic\n 中找不到模块 nf_conntrack_ipv4\n", “stderr_lines”:[“modprobe:致命:在目录/lib/modules/5.4.0-91-generic中找不到模块nf_conntrack_ipv4”],“stdout”:“”,“stdout_lines”:[]}

linux ubuntu linux-kernel kubernetes ubuntu-20.04

-2
推荐指数
1
解决办法
5705
查看次数