CEPH Sorunları Çözme

BulutWiki sitesinden
Admin (mesaj | katkılar) tarafından oluşturulmuş 13:01, 26 Haziran 2018 tarihli sürüm
Şuraya atla: kullan, ara

Pool üzerinde herhangi bir uygulamanın aktifleştirilmemesi

Özellikle yeni bir pool oluşturulduğunda bu pool üzerinde rbd, rgw ve benzeri hiçbir uygulama etkin hale getirilmediyse bu sorun ortaya çıkıyor. Hata mesajı aşağıda verilmiştir.

ceph -w
 cluster:
   id:     b49d69c7-e017-4f9f-b69b-57d3efe7987b
   health: HEALTH_WARN
           application not enabled on 1 pool(s)

ceph health detail komutu ile hatanın detayına bakılabilir.

HEALTH_WARN application not enabled on 1 pool(s)
POOL_APP_NOT_ENABLED application not enabled on 1 pool(s)
   application not enabled on pool 'rbdtest'
   use 'ceph osd pool application enable <pool-name> <app-name>', where <app-name> is 'cephfs', 'rbd', 'rgw', or freeform for custom applications.

aşağıdaki komut ile de sorun çözülür.

ceph osd pool application enable rbdtest rbd

Crash Tunable Hatası

Pool üzerinde bir image oluşturmak ve bu imaj ile rbd map ile linux cihazı olarak bağlamak için tunables legacy olarak ayarlanması gerekebiliyor. Bu durumda ceph kümesinin durumuna bakıldığında aşağıdaki hata gözlemlenir.

ceph -s
 cluster:
   id:     b49d69c7-e017-4f9f-b69b-57d3efe7987b
   health: HEALTH_WARN
           crush map has straw_calc_version=0

Sorunu çözmek için tekrar tunables set edilir.

ceph osd crush tunables optimal

MON Servisi ayakta ancak quourum olarak eklenemiyorsa

ceph -s komutu ile monitörlerin durumu izlenebilir, bu monitörlerin tamamı ayakta ve quorum statüsünde olması gerekir. Yeni bir monitör ceph kümesine eklendiğinde de sayı bir artırılarak gösterilmesi gerekmektedir. Ancak bazen aşağıdaki komut çalıştırıldığında hata alınabilir.

komut:

ceph-deploy mon create-initial

hata mesajı:

ceph_deploy.mon][WARNIN] mon.zula210 monitor is not yet in quorum, tries left: 5
[ceph_deploy.mon][WARNIN] waiting 5 seconds before retrying

ilgili sunucunun monitör servisinin log dosyasında:

2018-06-20 08:10:39.307 7fb71d1d4700  0 mon.zula210@0(probing) e0 ms_verify_authorizer bad authorizer from mon 192.168.56.212:6789/0
2018-06-20 08:10:39.307 7fb71d1d4700  0 -- 192.168.56.210:6789/0 >> 192.168.56.212:6789/0 conn(0x5580ac1f0a00 :6789 s=STATE_ACCEPTING_WAIT_CONNECT_MSG_AUTH pgs=0 cs=0 l=0).handle_connect_msg: got bad authorizer
2018-06-20 08:10:39.307 7fb71d1d4700  0 cephx: verify_authorizer could not decrypt ticket info: error: bad magic in decode_decrypt, 173658197698476996 != 18374858748799134293

bu durumda /var/lib/ceph/mon/ceph-zula210/keyring dosyasi kontrol edilir. Diger tum mon servisleri calisip bu calismiyorsa diger dosyalardan farkli key'e sahiptir. Digerleri ile ayni yapildiktan sonra artik komut calisabilir. Ayrica /etc/ceph/ceph.client.admin.keyring dosyasi da kontrol edilmelidir.