meta données pour cette page
Apprendre à utiliser Ceph
Utilisé par de grandes sociétés comme X et X, il met à disposition un espace de stockage hautement disponible dont celui-ci peut fonctionner avec bien plus qu'une dizaine de péta-octets de données.
Pour réaliser ce besoin, ils ont créé deux types de démons dont :
- Ceph Monitor = Organise les données en enregistrant les objets dans une table de correspondance
- Ceph OSD Daemon = Vérifie l'intégrité des données de chaque nœuds et remonte une anomalie au Monitor un fois celle-ci détecté.
Si certain points vous semble sombre, la documentation officielle est librement disponible à cette adresse : http://docs.ceph.com/docs/master/start/intro/
ou : http://docs.ceph.com/docs/master/rados/configuration/mon-config-ref/
Tutoriel
notes
https://sabaini.at/pages/ceph-cheatsheet.html
- supprimer un pool :
ceph osd pool delete webdata webdata --yes-i-really-really-mean-it
- Ainsi voir l'espace disponible avec :
ceph df
- Lancer la synchronisation des neouds :
ceph -w
- voir les nodes montés :
ceph quorum_status
- Utiliser les partitions XFS :
mkfs.xfs -f -i size=2048 /dev/ssd mount -t xfs /dev/ssd -o noaime,inode64,logbsize=256k,delaylog /var/lib/ceph/osd/ceph-osdX
- Créer un pool contenant une partition qui sera ensuite monté sur le système :
ceph osd pool create mon_pool 100 100 rbd create image01 --size 1024 --pool mon_pool
L'identifier pour lui définir des droits d’accès :
sudo rbd map image01 --pool mon_pool --name client.admin sudo /sbin/mkfs.ext4 -m0 /dev/rbd/mon_pool/image01 sudo mount /dev/rbd/mon_pool/image01 /mnt/
- Supprimer les méta-data d'un disque :
wipefs /dev/sdb -a
rbd create image --size 2014 --pool mon_pool rbd rm image -p mon_pool