meta données pour cette page
  •  

Apprendre à utiliser Ceph


Utilisé par de grandes sociétés comme X et X, il met à disposition un espace de stockage hautement disponible dont celui-ci peut fonctionner avec bien plus qu'une dizaine de péta-octets de données.

Pour réaliser ce besoin, ils ont créé deux types de démons dont :

  • Ceph Monitor = Organise les données en enregistrant les objets dans une table de correspondance
  • Ceph OSD Daemon = Vérifie l'intégrité des données de chaque nœuds et remonte une anomalie au Monitor un fois celle-ci détecté.

Si certain points vous semble sombre, la documentation officielle est librement disponible à cette adresse : http://docs.ceph.com/docs/master/start/intro/

ou : http://docs.ceph.com/docs/master/rados/configuration/mon-config-ref/

Tutoriel

notes

https://sabaini.at/pages/ceph-cheatsheet.html

  • supprimer un pool :
ceph osd pool delete webdata webdata --yes-i-really-really-mean-it 
  • Ainsi voir l'espace disponible avec :
ceph df
  • Lancer la synchronisation des neouds :
ceph -w
  • voir les nodes montés :
ceph quorum_status
  • Utiliser les partitions XFS :
mkfs.xfs -f -i size=2048 /dev/ssd
mount -t xfs /dev/ssd -o noaime,inode64,logbsize=256k,delaylog /var/lib/ceph/osd/ceph-osdX
  • Créer un pool contenant une partition qui sera ensuite monté sur le système :
ceph osd pool create mon_pool 100 100
rbd create image01 --size 1024 --pool mon_pool

L'identifier pour lui définir des droits d’accès :

sudo rbd map image01 --pool mon_pool --name client.admin

sudo /sbin/mkfs.ext4 -m0 /dev/rbd/mon_pool/image01
sudo mount /dev/rbd/mon_pool/image01 /mnt/
  • Supprimer les méta-data d'un disque :
wipefs /dev/sdb -a
rbd create image --size 2014 --pool mon_pool
rbd rm image -p mon_pool