L’actualité étant avec OVH, aujourd’hui je vous consacre un petit article sur la configuration d’une sauvegarde sur le Cloud de Amazon S3. Les données étant très importante il serait dommage de les perdre surtout avec les offres disponibles depuis un certain nombre d’année.
Cet article est réservé principalement à ceux qui utilise des serveurs dédiés ou vps et qui ont donc accès à une console SSH.
Amazon ou AWS pour les intimes à depuis 2006 créer des offres de sauvegarde décentralisée dans leur Datacenter ou Cloud. Ils vous permettent après une inscription gratuite chez eux de bénéficier de leur service, on peut donc créer assez facilement un bucket (compartiment) qui contiendra vos sauvegarde et choisir la redondance des données. Ainsi que du stockage profond avec S3 Glacier. Il vous sera possible de choisir parmi plusieurs Datacenter et donc de sauvegarder à divers endroit pour plus de sécurité, au USA, Europe, etc.
L’idée et d’avoir sur votre serveur un disque monté ou vous aurez accès directement à ce stockage pour y déposer, supprimer et récuperer des données, comme un répertoire en somme.
Pour parler tarif, il serait bête de s’en privée 15 Go sont offert tous les mois, ensuite à chaque Gigaoctet supplémentaire il faudra payer 0.024 € le Go supplémentaire, soit 0.72€ pour 30 Go bien entendu vous payerez aussi à la sortie des données si vous en avez besoin, quelque centimes également, ou lors des opérations de listing, etc., rien de bien trop chère. Un backup restant un backup on y touche que si on rencontre un problème, donc sa ne chiffrera jamais très haut, sauf si vous avez beaucoup de données, mais vraiment beaucoup.
Il faudra installer le package s3fs, sous ubuntu par exemple il faudra taper :
apt install s3fs
Pour les autres distributions, je pense que vous savez installer un packet.
Ensuite sur Amazon, il faudra créer un IAM, un utilisateur autorisé à utiliser le Amazon S3 vous trouverez facilement IAM dans la recherche de Amazon une fois connecter. Cliquez sur Utilisateurs et Ajouter un nouvel utilisateur, donner lui un nom et cocher « Accès par programmation », sélectionner ensuite « Attacher directement les stratégies existante ». Vous pourrez chercher une stratégie de filtre, chercher AmazonS3FullAccess et cocher le. Faite suivant. Une autre proposition apparait, faite Suivant : Vérification
On vous fournira un ID et Clé secrète, copier c’est deux information, nous en avons besoin pour la suite.
On créer ensuite un fichier pour les identifiants :
echo ID :Cle_Secrete > passwd-s3fs
chmod 600 passwd-s3fs
Créer un répertoire spécifique pour avoir accès à votre S3 par exemple S3 :
mkdir s3
Et monter le disque Amazon S3
s3fs Nomdubucket /home/s3 -o passwd_file=passwd-s3fs -o url="https://s3-eu-central-1.amazonaws.com" -o endpoint=eu-central-1
Les paramètre url et endpoint, doivent correspondre à l’emplacement de votre s3, ici il s’agit du eu-central-1.
Ensuite il vous suffit d’envoyer des fichiers de dedans avec la commande cp (pour copier) et de récupérer des fichiers si beaucoup dans l’autre sens.
cp /home/monbackup.tar.bz /home/s3/monbackup.tar.bz
Pour finir cette article vous voyez qu’il reste peu onéreux et assez simple de mettre en place un backup sur Amazon S3 à vous de l’automatiser avec quelque script Bash et une tache Cron par exemple, les conteneur S3 sont répliquer 3 avec un taux de perte de 99,999999999% soit peux de change de perdre c’est donnée vous pourrez tous de même à la lueur des dernières actualité avec OVH, faire une réplication sur un autre bucket Amazon S3 dans une région différente pour assurer au max vos données, ceci est automatisable directement dans l’interface d’Amazon.
Bon backup à tous.