我目前正在寻找一个好的分布式文件系统.
这应该:
以下是我认为最有希望的四位候选人:
文件系统主要用于媒体文件(图像和音频).有非常小和中等大小的文件(1 KB - 10 MB).文件数量应该在几百万左右.
是否有关于性能,CPU负载,内存消耗和可扩展性的基准测试?您使用这些或其他分布式文件系统的经历是什么?
Ceph teuthology安装失败,在Ubuntu 14.04,内核4.4.0-51-generic上出现以下错误:
Run Code Online (Sandbox Code Playgroud)ImportError: <module 'setuptools.dist' from '/usr/lib/python2.7/dist-packages/setuptools/dist.pyc'> has no 'check_specifier' attribute
我同时收到这两个错误.我无法减少pg计数,我无法添加更多存储空间.
这是一个新的集群,当我上传大约40GB时,我收到了这些警告.我想是因为radosgw创造了一堆游泳池.
ceph如何能够获得太多的每个pgs,但每pg的对象数量多于平均值,而pgs建议太少?
HEALTH_WARN too many PGs per OSD (352 > max 300);
pool default.rgw.buckets.data has many more objects per pg than average (too few pgs?)
osds: 4 (2 per site 500GB per osd)
size: 2 (cross site replication)
pg: 64
pgp: 64
pools: 11
Run Code Online (Sandbox Code Playgroud)
使用rbd和radosgw,没什么特别的.
我使用推荐值配置了Ceph(使用文档中的公式).我有3个OSD,我的配置(我放在监控节点和所有3个OSD)包括:
osd pool default size = 2
osd pool default min size = 1
osd pool default pg num = 150
osd pool default pgp num = 150
Run Code Online (Sandbox Code Playgroud)
当我跑步时,ceph status
我得到:
health HEALTH_WARN
too many PGs per OSD (1042 > max 300)
Run Code Online (Sandbox Code Playgroud)
由于两个原因,这令人困惑.首先,因为推荐的配方不满足Ceph.其次,最令人费解的是,当我的配置为150时,它表示每个OSD有1042个PG.
我究竟做错了什么?
我有一个包含 66 个 OSD 的 Ceph 集群,其中有一个data_pool
和一个metadata_pool
.
我想将其放置metadata_pool
在 3 个具有 SSD 的特定 OSD 上,因为所有其他 63 个 OSD 都具有较旧的磁盘。
如何强制 Ceph 将其放置metadata_pool
在特定的 OSD 上?
提前致谢。
WAL(Write-Ahead Log)技术已经在很多系统中使用。
WAL 的机制是,当客户端写入数据时,系统会做两件事:
有两个好处:
为什么不直接将数据写入磁盘?您将每次写入都直接写入磁盘。成功时,您告诉客户端成功,如果写入失败,则返回失败的响应或超时。
这样,您仍然拥有这两个好处。
那么使用 WAL 有什么好处呢?
我使用 rook 构建 ceph 集群。但是我的 pvc 陷入待处理状态。当我使用 kubectl describe pvc 时,我发现来自 persistencevolume-controller 的事件:
\nwaiting for a volume to be created, either by external provisioner "rook-ceph.rbd.csi.ceph.com" or manually created by system administrator\n
Run Code Online (Sandbox Code Playgroud)\n我的所有 Pod 都处于运行状态:
\nNAME READY STATUS RESTARTS AGE\ncsi-cephfsplugin-ntqk6 3/3 Running 0 14d\ncsi-cephfsplugin-pqxdw 3/3 Running 6 14d\ncsi-cephfsplugin-provisioner-c68f789b8-dt4jf 6/6 Running 49 14d\ncsi-cephfsplugin-provisioner-c68f789b8-rn42r 6/6 Running 73 14d\ncsi-rbdplugin-6pgf4 3/3 Running 0 14d\ncsi-rbdplugin-l8fkm 3/3 Running 6 14d\ncsi-rbdplugin-provisioner-6c75466c49-tzqcr 6/6 Running 106 14d\ncsi-rbdplugin-provisioner-6c75466c49-x8675 6/6 Running 17 14d\nrook-ceph-crashcollector-compute08.dc-56b86f7c4c-9mh2j 1/1 Running 2 12d\nrook-ceph-crashcollector-compute09.dc-6998676d86-wpsrs 1/1 Running …
Run Code Online (Sandbox Code Playgroud) 有没有人试图使用GlusterFS或Ceph作为Hadoop的后端?我不是在谈论只是使用插件来缝制东西.性能是否优于HDFS本身?是否适合生产使用.
另外,合并对象存储,hadoop hdfs存储作为单个存储是一个非常好的主意吗?或者最好让它们分开.
我正在运行proxmox,我尝试删除一个我创建错误的池.但它不断给出这个错误:
mon_command failed - pool deletion is disabled; you must first set the mon_allow_pool_delete config option to true before you can destroy a pool1_U (500)
OK
Run Code Online (Sandbox Code Playgroud)
但:
root@kvm-01:~# ceph -n mon.0 --show-config | grep mon_allow_pool_delete
mon_allow_pool_delete = true
root@kvm-01:~# ceph -n mon.1 --show-config | grep mon_allow_pool_delete
mon_allow_pool_delete = true
root@kvm-01:~# ceph -n mon.2 --show-config | grep mon_allow_pool_delete
mon_allow_pool_delete = true
root@kvm-01:~# cat /etc/ceph/ceph.conf
[global]
auth client required = cephx
auth cluster required = cephx
auth service required = cephx
cluster …
Run Code Online (Sandbox Code Playgroud) 我用 cephadm 配置了一个简单的 Ceph 集群,如下所示:
cephadm bootstrap --mon-ip 192.168.0.4
ssh-copy-id -f -i /etc/ceph/ceph.pub root@host2
ssh-copy-id -f -i /etc/ceph/ceph.pub root@host3
ceph orch host add host2
ceph orch host add host3
ceph orch apply osd --all-available-devices
Run Code Online (Sandbox Code Playgroud)
它工作正常。现在我想在192.168.1.0/24上建立一个集群网络。
我试过了,ceph config set global cluster_network 192.168.1.0/24
但没有任何效果。我在辅助 NIC 上没有看到任何流量。
我该如何解决这个问题?让 cephadm 注意到变化的推荐方法是什么?
ceph ×10
glusterfs ×2
cephadm ×1
database ×1
filesystems ×1
gridfs ×1
hadoop ×1
installation ×1
proxmox ×1
rocksdb ×1
rook-storage ×1
storage ×1