1 mongodb kubernetes google-kubernetes-engine persistent-volumes kubernetes-pod
最近,我在 GKE 上部署的 mongo 中的托管 pod 被自动删除,并在其位置创建了一个新的 pod。结果,我所有的数据库数据都丢失了。
我为部署指定了一个 PV,并且 PVC 也被绑定了,并且我使用了标准存储类(google 永久磁盘)。持久卷声明也没有被删除。
这是结果的图像kubectl get pv:
pvc
我的 mongo 部署以及持久卷声明和服务部署都是通过使用komposedocker-compose.yml 中的 kubernets 工具创建的,用于prisma 1 + mongodb部署。
这是我的山药:
mongo-deployment.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
annotations:
kompose.cmd: kompose -f docker-compose.yml convert
kompose.version: 1.21.0 (992df58d8)
creationTimestamp: null
labels:
io.kompose.service: mongo
name: mongo
namespace: dbmode
spec:
replicas: 1
selector:
matchLabels:
io.kompose.service: mongo
strategy:
type: Recreate
template:
metadata:
annotations:
kompose.cmd: kompose -f docker-compose.yml convert
kompose.version: 1.21.0 (992df58d8)
creationTimestamp: null
labels:
io.kompose.service: mongo
spec:
containers:
- env:
- name: MONGO_INITDB_ROOT_PASSWORD
value: prisma
- name: MONGO_INITDB_ROOT_USERNAME
value: prisma
image: mongo:3.6
imagePullPolicy: ""
name: mongo
ports:
- containerPort: 27017
resources: {}
volumeMounts:
- mountPath: /var/lib/mongo
name: mongo
restartPolicy: Always
serviceAccountName: ""
volumes:
- name: mongo
persistentVolumeClaim:
claimName: mongo
status: {}
Run Code Online (Sandbox Code Playgroud)
mongo-persistentvolumeclaim.yaml
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
creationTimestamp: null
labels:
io.kompose.service: mongo
name: mongo
namespace: dbmode
spec:
accessModes:
- ReadWriteOnce
resources:
requests:
storage: 100Mi
status: {}
Run Code Online (Sandbox Code Playgroud)
mongo-service.yaml
apiVersion: v1
kind: Service
metadata:
annotations:
kompose.cmd: kompose -f docker-compose.yml convert
kompose.version: 1.21.0 (992df58d8)
creationTimestamp: null
labels:
io.kompose.service: mongo
name: mongo
namespace: dbmode
spec:
ports:
- name: "27017"
port: 27017
targetPort: 27017
selector:
io.kompose.service: mongo
status:
loadBalancer: {}
Run Code Online (Sandbox Code Playgroud)
我尝试检查安装的内容/var/lib/mongo,但得到的只是一个空lost+found/文件夹,我尝试搜索 Google 持久磁盘,但根目录中没有任何内容,我不知道还能去哪里查找。
我猜想由于某种原因,mongo 部署在启动新 pod 时不会从持久卷中提取旧数据,这是非常令人困惑的。
我还有另一个 kubernetes 项目,发生了同样的事情,除了旧的 pod 仍然显示但有状态evicted。
我尝试检查 /var/lib/mongo 中安装的内容,但得到的只是一个空的lost+found/文件夹,
Pod好的,但是您是否检查过在重新启动和数据丢失之前它实际上在那里保存了数据?我猜它从未在该目录中保存任何数据。
我通过运行一个简单的命令检查了您使用的图像Pod:
apiVersion: v1
kind: Pod
metadata:
name: my-pod
spec:
containers:
- name: my-pod
image: mongo:3.6
Run Code Online (Sandbox Code Playgroud)
当您通过运行连接到它时:
kubectl exec -ti my-pod -- /bin/bash
Run Code Online (Sandbox Code Playgroud)
并检查默认的 mongo 配置文件:
root@my-pod:/var/lib# cat /etc/mongod.conf.orig
# mongod.conf
# for documentation of all options, see:
# http://docs.mongodb.org/manual/reference/configuration-options/
# Where and how to store data.
storage:
dbPath: /var/lib/mongodb #
journal:
enabled: true
# engine:
# mmapv1:
# wiredTiger:
Run Code Online (Sandbox Code Playgroud)
dbPath您可以看到实际上设置为/var/lib/mongodb和未设置为 的其他内容/var/lib/mongo。
因此,很可能您的 mongo 实际上并未将任何数据保存到PVie 的/var/lib/mongo安装目录,而是保存到/var/lib/mongodb其配置文件中所述的数据。
您应该能够通过kubectl exec正在运行的 mongo pod 轻松检查它:
kubectl exec -ti <mongo-pod-name> -- /bin/bash
Run Code Online (Sandbox Code Playgroud)
并验证数据的保存位置。
如果您没有以任何方式覆盖原始配置文件(例如通过提供 )ConfigMap,mongo则应将其数据保存/var/lib/mongodb到此目录,而不是卷的安装点,而是Pod文件系统及其临时文件系统的一部分。
上面提到的/etc/mongod.conf.orig只是一个模板,因此它并不反映已应用的实际配置。
如果你运行:
kubectl logs your-mongo-pod
Run Code Online (Sandbox Code Playgroud)
它将显示数据目录所在的位置:
$ kubectl logs my-pod
2020-12-16T22:20:47.472+0000 I CONTROL [initandlisten] MongoDB starting : pid=1 port=27017 dbpath=/data/db 64-bit host=my-pod
2020-12-16T22:20:47.473+0000 I CONTROL [initandlisten] db version v3.6.21
...
Run Code Online (Sandbox Code Playgroud)
正如我们所看到的,数据保存在/data/db:
dbpath=/data/db
Run Code Online (Sandbox Code Playgroud)
| 归档时间: |
|
| 查看次数: |
1807 次 |
| 最近记录: |