"CEPH SSD Tamponlama - Cache Tiering" sayfasının sürümleri arasındaki fark

BulutWiki sitesinden
Şuraya atla: kullan, ara
("### CEPH CACHE TIERING ### write-back mode icin anlatilmistir. nvme ssd disklerden olusturulan rbdssd pool'u cache olarak sata disk pooldan olusan rbdperftest..." içeriğiyle yeni sayfa oluşturdu)
 
 
1. satır: 1. satır:
### CEPH CACHE TIERING ###
+
=== CEPH CACHE TIERING ===
 
write-back mode icin anlatilmistir.
 
write-back mode icin anlatilmistir.
 
nvme ssd disklerden olusturulan rbdssd pool'u cache olarak sata disk pooldan olusan rbdperftest poolu onune koymak icin Mimic versiyonunda yapilmasi gereken islemler
 
nvme ssd disklerden olusturulan rbdssd pool'u cache olarak sata disk pooldan olusan rbdperftest poolu onune koymak icin Mimic versiyonunda yapilmasi gereken islemler
40. satır: 40. satır:
 
  ceph osd pool set OpenstackCachedRBD hit_set_type bloom
 
  ceph osd pool set OpenstackCachedRBD hit_set_type bloom
  
### KALDIRMAK icin ###
+
=== KALDIRMAK icin ===
 
uzerindeki verileri flush etmek icin;
 
uzerindeki verileri flush etmek icin;
 
  ceph osd tier cache-mode rbdssd forward --yes-i-really-mean-it
 
  ceph osd tier cache-mode rbdssd forward --yes-i-really-mean-it

12:40, 20 Eylül 2018 itibarı ile sayfanın şu anki hâli

CEPH CACHE TIERING

write-back mode icin anlatilmistir. nvme ssd disklerden olusturulan rbdssd pool'u cache olarak sata disk pooldan olusan rbdperftest poolu onune koymak icin Mimic versiyonunda yapilmasi gereken islemler

#cache tiering
#cache pool: rbdssd
#cool pool: rbdperftest
  • rbdperftest icerisinde kaln objeleri silmek icin:
for i in `rados -p rbdperftest ls`; do rados -p rbdperftest rm $i; echo $i; done
  • tier yapida rbdssd'yi cache'lemek icin
ceph osd tier add rbdperftest rbdssd
  • degisen dosyalar oldugundan modu write-back olarak ayarlandi.
ceph osd tier cache-mode rbdssd writeback
  • tum veri trafiginin rbdssd cache uzerinden aktarilabilmesi icin yapildi. Dilernirse eger veri cache'te yok ise bu durumda dogrudan hdd uzerinden de okunabilir. (read-proxy mode)
ceph osd tier set-overlay rbdperftest rbdssd
  • durum kontrol edilir.
ceph osd pool ls detail
  • Cache'te yer alan degisen objeler pool kapasitesinin yuzde 40 oldugunda hdd'ye flush etmeye basla.
ceph osd pool set rbdssd cache_target_dirty_ratio 0.4
  • Degisen objeler toplam kapasitenin yuzde 60'ina ulastiginda agresif bir flush'lamaya basla.
ceph osd pool set rbdssd cache_target_dirty_high_ratio 0.6
  • Sabit kalan objeler kapasitenin yuzde sekseni oldugunda bu objeleri flush etmeye basla.
ceph osd pool set rbdssd cache_target_full_ratio 0.8
  • Obje degistikten 10dk sonra flush et.
ceph osd pool set rbdssd cache_min_flush_age 600
  • Cache'te yer alan ve 30 dk dir erisilmeyen objeleri cikar. (evict)
ceph osd pool set rbdssd cache_min_evict_age 1800
  • 1 cache pools are missing hit_sets hatasini onlemek icin
ceph osd pool set OpenstackCachedRBD hit_set_type bloom

KALDIRMAK icin

uzerindeki verileri flush etmek icin;

ceph osd tier cache-mode rbdssd forward --yes-i-really-mean-it

ne kadar obje olduguna bakilir,

rados -p rbdssd ls

hala cok sayida var ise elle flush edilir.

rados -p rbdssd cache-flush-evict-all

ceph df komutu ile o pool'da yer alan obje sayisina bakilir. Surekli azalmasi gereklidir.

ceph osd tier remove-overlay rbdperftest
ceph osd tier remove rbdperftest rbdssd