标签: glusterfs

许多文件的 gluster 性能

只是想知道这样的表现是否正常。我正在将一个目录(大约 20 GB 的图像)同步到一个 gluster 卷(3 个节点,3 个副本,每个节点都在同一个 digitalocean 数据中心)中。

rsync --info=progress2 -r /var/www/app/_appdata/ /mnt
    251,670,295  62%  716.84kB/s    0:05:42 (xfr#5708, ir-chk=1257/7830)
Run Code Online (Sandbox Code Playgroud)

当我只复制一个大文件时,速度约为 30 MB/s。

当我复制一个充满许多文件的目录时,我得到大约 700 kB/s

知道为什么许多文件的速度这么慢吗?

rsync glusterfs

3
推荐指数
1
解决办法
2292
查看次数

glusterfs卷创建失败 - brick已经是卷的一部分

在云中,我们有一组glusterfs节点(参与gluster卷)和客户端(挂载到gluster卷).这些节点使用terraform hashicorp工具创建.

一旦群集启动并运行,如果我们想要更改gluster机器配置,例如将计算大小从4 cpus增加到8 cpus,terraform可以重新创建具有新配置的节点.因此现有的gluster节点将被销毁并且新的实例已创建但具有相同的IP.在新创建的实例中,卷创建命令失败,表示brick已经是卷的一部分.

sudo gluster volume create VolName replica 2 transport tcp ip1:/ mnt/ppshare/brick0 ip2:/ mnt/ppshare/brick0

volume create:VolName:failed:/ mnt/ppshare/brick0已经是卷的一部分

但是在这种情况下没有卷.

我知道如果我必须扩展或缩小音量,我可以添加或删除现有音量的砖块.在这里,我正在改变节点的计算,因此必须重新创建它.我不明白为什么它应该说砖已经是卷的一部分,因为它完全是一台新机器.

如果有人可以解释为什么它说Brick已经是卷的一部分以及存储卷/砖信息的位置,那将是非常有帮助的.这样我就可以成功地重新创建卷.

我也尝试从这个链接中的以下步骤清除挂载中的glusterfs卷相关属性,但没有运气. https://linuxsysadm.wordpress.com/2013/05/16/glusterfs-remove-extended-attributes-to-completely-remove-bricks/.

apt-get install attr cd/glusterfs for i in attr -lq .; 做setfattr -x trusted.$ i .; 完成attr -lq/glusterfs(用于测试,输出应为空)

redhat glusterfs

2
推荐指数
2
解决办法
1万
查看次数

LVM Thinpool - 如何调整Thinpool LV的大小?

我有以下设置:

硬件RAID上的12个驱动器上的LVM卷组,其中一个精简池和一个Red Hat Gluster Server上的逻辑卷.它看起来如下:

root@server:pts/1 - [17:33]
~ % pvs
  PV         VG  Fmt  Attr PSize  PFree
  /dev/sdb   vg0 lvm2 a--  36.38t    0

root@server:pts/1 - [17:34]
~ % vgs
  VG  #PV #LV #SN Attr   VSize  VFree
  vg0   1   2   0 wz--n- 36.38t    0

root@server:pts/1 - [17:34]
~ % lvs
  LV      VG  Attr       LSize  Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  gluster vg0 Vwi-aot--- 30.02t tp0         7.06
  tp0     vg0 twi-aot--- 36.35t             5.83   0.36
Run Code Online (Sandbox Code Playgroud)

而现在像Googling一样棘手的部分我没有得到任何解决方案.我想调整LV"gluster"的大小,它位于一个虚拟大小为30 TB的瘦池中.我尝试了所有扩展和调整大小的函数,我在LVM的手册页中没有看到任何内容.那么也许你知道如何在这里提供帮助吗?

filesystems lvm glusterfs

2
推荐指数
1
解决办法
2万
查看次数

如何安全地更改 Kubernetes 集群上 glusterfs 存储类的 resturl?

Heketi pod 在我们的 Kubernetes 集群上重新启动,现在我正在努力解决如何使用新的 heketi 端点更改 glusterfs 存储类的 resturl。
在我们的 PVC 上没有任何数据丢失的最安全的选择是什么?我能够在我们的测试环境中重新创建 Kubernetes Cluster v1.11.10 并开始对其进行调查。当我尝试编辑存储类时,我得到:

"StorageClass.storage.k8s.io "glusterfs" is invalid: parameters Forbidden: updates to parameters are forbidden."
Run Code Online (Sandbox Code Playgroud)

我们正在使用 Kubernetes v.1.11.10。
我尝试使用正确的 heketi 端点创建新的存储类,但无法编辑 PVC:

PersistentVolumeClaim "test-pvc" is invalid: spec: Forbidden: is immutable after creation except resources.requests for bound claims 
Run Code Online (Sandbox Code Playgroud)

我只能删除旧的存储类并使用正确的 heketi resturl 创建新的。

glusterfs kubernetes kubernetes-pvc

2
推荐指数
1
解决办法
1497
查看次数

即使创建了卷,Gluster 也不同步

我已经在 LAN 上的两个 ubuntu 机器上安装了 Gluster。一切看起来都很好,但是当我将文件写入服务器 1 上的文件夹时,它不会出现在服务器 2 上的文件夹中。这是我所知道的仅有的两个测试,用于测试卷是否正常工作。我已经测试了对等点连接并且它们确实连接了。

root@ubuntu:/var/www# netstat -tap | grep glusterfsd
tcp        0      0 *:49152                 *:*                     LISTEN      11637/glusterfsd
tcp        0      0 192.168.10.2:49152      192.168.10.2:1023       ESTABLISHED 11637/glusterfsd
tcp        0      0 192.168.10.2:1022       192.168.10.2:24007      ESTABLISHED 11637/glusterfsd
tcp        0      0 192.168.10.2:49152      192.168.10.3:1014       ESTABLISHED 11637/glusterfsd
tcp        0      0 192.168.10.2:49152      192.168.10.3:1020       ESTABLISHED 11637/glusterfsd
tcp        0      0 192.168.10.2:49152      192.168.10.2:1020       ESTABLISHED 11637/glusterfsd

root@ubuntu:/var/www# gluster volume info

Volume Name: kdevvol
Type: Replicate
Volume ID: 9170886e-2d95-43fb-9425-514f142cb38a
Status: Started
Number of Bricks: 1 x 2 = 2 …
Run Code Online (Sandbox Code Playgroud)

ubuntu replication glusterfs

1
推荐指数
1
解决办法
3778
查看次数