Recevez les alertes de votre NAS Synology par SMS avec les forfaits d’OVH

sms_phone

Vous possédez un NAS Synology et vous souhaitez être avertis rapidement (et d'une manière fiable) lorsque certains événements se produisent (disque dur HS, température trop elevée ...) ? La notification par SMS est certainement la meilleure solution.

J'ai récemment eu à paramétrer ce type de notification et je voulais partager avec vous cette petite configuration qui pourra peut être en intéresser certains.

OVH propose un ensemble de forfaits permettant d'envoyer des SMS à un tarif assez avantageux (à partir  de 8€ HT pour 100 SMS). L'hébergeur propose également un ensemble d'API permettant de générer des SMS à partir de vos propres scripts. Pour ce how-to nous utiliserons "HTTP2SMS" dont le fonctionnement est détaillé à cette adresse.

Pour commencer, connectez vous à votre manager OVH (rubrique "SMS") afin de :

  • Récupérer votre identifiant OVH de compte SMS (format "sms-nic-X") -> (1) sur le screenshot

scr1

  • Créer un nouvel utilisateur SMS (dans la suite de cet exemple cet utilisateur est "testsms")

scr2

  • Créer un nouvel expéditeur pour vos SMS. Vous disposez de plusieurs méthodes afin de vous identifier auprès d'OVH. Choisissez ce qui vous convient le mieux.

scr4

scr5

  • Connectez-vous ensuite à l'interface d'administration de votre NAS et sélectionnez "Control Pannel" (ou un truc qui doit ressembler à "panneau de configuration" si vous utilisez une interface en français...)

scr6

  • Puis ensuite la rubrique "Notification"

scr7

  • Sélectionnez l'onglet "SMS" , cochez "Enable SMS notifications" et cliquez ensuite sur "Add SMS service provider"

scr8

  • Copiez-collez la chaine fournie ci-dessous au sein de la zone "SMS URL" (en prenant soin de remplacer "sms-AB12345-1" par votre identifiant OVH de compte SMS récupéré au tout début de ce tuto et "EXPEDITEUR" par votre identifiant d'expéditeur défini lors de votre connexion au manager OVH - cf. ci-dessus)

https://www.ovh.com/cgi-bin/sms/http2sms.cgi?account=sms-AB12345-1&login=LOGIN_ACCOUNT&password=PASS_ACCOUNT&from=EXPEDITEUR&to=DESTINATAIRE&noStop=1&message=MESSAGE_ALERTE

scr9

  • Cliquez sur "NEXT" et paramétrez l'écran suivant de la manière suivante

scr10

  • Validez puis remplissez l'écran suivant avec vos informations définies au début de ce tuto : nom d'utilisateur sms (attention : différent de votre identifiant OVH de compte SMS) et son mot de passe associé. Il faut également préciser le numéro de téléphone sur lequel seront envoyées les alertes (bien respecter le format tel qu'il est présenté ci-dessous)

scr11

Validez, il ne vous reste plus qu'à générer un sms de test et de valider votre configuration !

N'oubliez pas d'aller jeter un coup d’œil dans l'onglet "Advanced" afin de définir quel type d'alertes vous souhaitez recevoir par SMS.

scr12

Externalisez sereinement vos sauvegardes avec Duplicity

hard_disk

Si vous administrez des serveurs vous avez certainement déjà réfléchit aux problèmes d'externalisation de vos sauvegardes. Pour ma part j'étais à la recherche depuis pas mal de temps d'une solution permettant de réaliser une externalisation avec comme contrainte principale le fait que les sauvegardes soient stockées d’une manière chiffrée sur le serveur de destination. Bien entendu, il existe le classique Rsync (et ses dérivés), ou bien encore Rdiff-Backup, mais pour moi cette solution n'est pas viable dans tous les cas car si le transfert reste sécurisé il n'en va pas de même pour le stockage !

J'ai récemment découvert une solution qui me semble intéressante : Duplicity. Dans les grandes lignes Duplicity permet de réaliser une sauvegarde distante au travers de pas mal de protocoles : scp, ftp, ssh, rsync, s3 (et compatibles ...). Les sauvegardes peuvent être complètes ou incrémentales (à priori en mode "block" grâce à l'utilisation de librsync). Duplicity prend également en charge le chiffrement des fichiers de sauvegarde soit avec une clé symétrique soit avec un système de clé publique/privée (personnellement j'ai opté pour la première solution).

Malheureusement Duplicity semble être un peu "rude" à l'utilisation. C'est pour cette raison qu'est né le projet "Duplicity Backup". Il s'agit d'un script shell associé à un fichier de conf. L'objectif de ce script est de piloter, simplement et efficacement, le fonctionnement de vos sauvegardes (en faisant appel à Duplicity).

Voici donc un petit how-to résultant de mes premières expériences avec ce script. L'objectif pour moi était d'externaliser la sauvegarde de serveurs fonctionnant sous Linux Debian 6. J'avais initialement prévu de stocker mes sauvegardes sur Amazon S3 mais en effectuant quelques recherches j'ai trouvé un système compatible proposant un tarif plus avantageux : DreamHost proposant le Go de données stockée à 7cts/$ / mois.

C'est parti !

On va partir du principe que vous disposez d'un distrib Debian fonctionnelle (version 6 mais ça devrait également fonctionner avec les versions plus récentes). Python doit être préalablement installé (c'est normalement le cas par défaut).

  • La première chose à faire est d'installer les packages nécessaires au fonctionnement de Duplicity (le package "python-boto" permet l'interaction avec un système de type S3) :
apt-get install librsync1 python python-boto python-dev librsync-dev wget unzip
  • Créez ensuite un répertoire au sein duquel nous allons placer l'installeur de Duplicity, le script ainsi que le fichier de conf. La création de ce répertoire au sein de "/home" est proposée à titre d'exemple. Libre à vous de choisir l'emplacement qui vous convient le mieux !
mkdir /home/duplicity-backup
  • On se place ensuite au sein de ce répertoire :
cd /home/duplicity-backup
  • On télécharge Duplicity à partir du site officiel (à ajuster car la version aura préalablement évoluée lorsque vous lirez ces lignes ...) :
wget http://www.collet-matrat.com/fichiers_download/duplicity-backup/duplicity-0.6.21.tar.gz
  • On décompacte le tout :
tar -xzvf duplicity-0.6.21.tar.gz
  • On lance l'installation :
cd duplicity-0.6.21
python setup.py install

Si vous rencontrez des erreurs vérifiez bien d'avoir installé "librsync-dev" ( apt-get install librsync-dev )

  • Il faut ensuite mettre en place le script et son fichier de conf :
cd ..
wget http://www.collet-matrat.com/fichiers_download/duplicity-backup/duplicity-backup.sh
wget http://www.collet-matrat.com/fichiers_download/duplicity-backup/duplicity-backup.conf
chmod 755 duplicity-backup.sh
  • On édite ensuite le fichier de conf de Duplicity Backup (je ne détaille ici que les principales directives - pour adapter plus finement la configuration à vos besoins reportez vous à la documentation de Duplicity-Backup disponible ICI):
vi duplicity-backup.conf
  • Si vous utilisez un système de stockage AWS S3 ou compatible (comme le stockage de DreamHost par exemple) vous devez renseigner lignes 43 et 44 votre clé d'API et votre clé secrète
  • Ligne 57 maintenez le paramètre par défaut "ENCRYPTION='yes'" si vous souhaitez que vos sauvegardes soient chiffrées
  • Ligne 65 mentionnez votre clé de chiffrement (si vous optez pour un chiffrage "symétrique" / ce que je vous conseille - certes un peu moins sûr mais quand même beaucoup  plus pratique ...)
  • Commentez les lignes 78 et 79 si vous optez pour un chiffrage symétrique
  • Ligne 85 indiquez la racine du backup (utilisez un truc du style 'ROOT="/"' on définira plus tard la liste des répertoires à sauvegarder )
  • Ligne 99 mentionnez la destination de votre backup. Si vous sauvegardez directement sur AWS S3 la syntaxe est déjà prête, vous n'avez qu'à mentionner le nom de votre bucket de destination (avec un nom de répertoire). Si vous sauvegardez vers un système compatible S3 (comme DreamHost par exemple) il va falloir utiliser une syntaxe du type : DEST="s3://objects.dreamhost.com/le_nom_de_votre_bucket/le_repertoire_de_sauvegarde/"
  • Ligne 129 mentionnez le répertoire à sauvegarder (si vous avez plusieurs répertoires à sauvegarder regarder l'exemple entre les lignes 122 et 126
  • Si vous avez des répertoires à exclure ça se passe entre les lignes 134 et 137 (n'oubliez pas de commenter si vous n'en avez pas besoin)
  • La ligne 146 définie (entre autre) la politique de sauvegarde : par défaut faire un full tous les 14 jours (on peux également passer d'autres paramètres à Duplicity par le biais de cette ligne // plus d'infos : ICI)
  • La ligne 161 indique au système combien de full conserver sur le stockage distant (il existe de nombreuses possibilités en matière de conservation des données / reportez vous à la doc !)
  • On définie ligne 183 le répertoire de stockage des log de Duplicity (/var/log/duplicity par exemple)
  • Et enfin, à partir de la ligne 195 le paramétrage d'un éventuel (et optionnel) envoi de mail lors de chaque backup

Une fois ce paramétrage effectué, on peut lancer une première sauvegarde à l'aide de la commande

/home/duplicity-backup/duplicity-backup.sh -c duplicity-backup.conf -b
Pour obtenir la liste des commandes disponibles vous pouvez utiliser

/home/duplicity-backup/duplicity-backup.sh -c duplicity-backup.conf
La restauration peut être réalisée fichier par fichier à l'aide de la commande

/home/duplicity-backup/duplicity-backup.sh -c duplicity-backup.conf --restore-file fichier_à_restaurer [fichier_de_destination]
Il est également possible de restaurer l'intégralité d'une sauvegarde

/home/duplicity-backup/duplicity-backup.sh -c duplicity-backup.conf --restore [répertoire_de_destination]
Et pour finir, deux recommandations importantes :
  • n'oubliez pas de sauvegarder votre clé de chiffrement en lieu sûr !
  • consultez la documentation de Duplicity (ICI) & de Duplicity-Backup (ICI) pour découvrir toute la puissance de cet outil et du script associé !
Photo by : Jeff Kubina

Gérez « AWS Glacier » en ligne de commande

AWS_LOGO_RGB_300px

Pour ceux qui seraient passés à côté, Amazon Glacier est un système de stockage sur le cloud d'Amazon (un peu comme S3) dédié à la conservation "longue durée" de vos données (un système d'archivage en quelque sorte).

Par rapport à S3 le principal avantage de cette solution est le prix. En effet avec un coût de $0,01 par Go et par mois il s'agit certainement là de la solution de stockage la plus économique du marché (10€ / 1To / mois difficile de faire mieux) - A titre de comparaison 1To stocké sur S3 coûte 95$ / mois !

Bon à ce tarif là vous devez vous douter qu'il y a quelques inconvénients. Le plus significatif est certainement le délai de récupération des données. En effet si l'upload d'informations est immédiat, toute opération de récupération de données va nécessiter une attente préalable d'au moins 4 h ! Et ce délai concerne toutes les opérations : même une demande d’inventaire (un "ls" en quelque sorte) du contenu d'un dépôt va demander le même délai (4h) avant d'obtenir le résultat de votre requête ...

Il est donc clair qu'avec une telle contrainte il faut réserver l'usage de Glacier à des seules fins d'archivage ...

A l'inverse de S3 il n’existe pas (pour le moment) d'interface web (fournie par Amazon) permettant de gérer le contenu de ses archives. Plusieurs logiciels dédiés existent toutefois sur le marché. J'ai par exemple testé "FastGlacier" sur une des mes machines Windows (ce soft est gratuit pour un usage non commercial). Toutefois, dans certains cas, il est plus pratique d'utiliser directement une interface en ligne de commande (pour archiver le contenu d'un serveur Linux par exemple). Il existe, pour ce faire, un ensemble de scripts Python totalement fonctionnels et qui permettent d'agir sur vos archives. Il s'agit de "glacier-cmd".

L'installation (et l'utilisation) de "glacier-cmd" ne pose pas vraiment de problème, mais j'ai quand même décidé de faciliter la tâche à ceux (celles) d'entres vous qui ont quelques petites difficultés avec la langue anglaise et/ou démarrer rapidement à partir d'un document de synthèse.

C'est parti ...

Ce how-to est basé sur l'utilisation d'une distribution Debian 6 "out of the box" sans particularité. Bien entendu aucune interface graphique n'est nécessaire (c'est d’ailleurs un peu l'objectif de ce how-to ...)

La première chose à faire est de s'assurer que Python est bien installé sur votre système.

Un petit "python -V" devrait vous retourner la version de Python installée

Dans le doute vous pouvez toujours lancer un "apt-get install python" ça ne peut pas faire de mal !

Il faut ensuite passer à l'installation de "Git" (qui vous permettra de faciliter l'installation de "glacier-cmd")

apt-get install git

On récupére ensuite l'intégralité de glacier-cmd avec une seule ligne de commande :

git clone https://github.com/uskudnik/amazon-glacier-cmd-interface.git

On entre dans le répertoire où ont été récupérées les sources

cd amazon-glacier-cmd-interface/

On installe un module supplémentaire pour Python nécessaire au lancement du script d'installation

apt-get install python-setuptools

Et on lance finalement le script d'installation

python setup.py install

On va ensuite créer un fichier de configuration pour glacier-cmd.

vi /etc/glacier-cmd.conf

Le fichier va ressembler à ça :


[aws]
 access_key=Identifiant de clé d’accès
 secret_key=Clé d’accès secrète

[glacier]
 region=us-east-1
 logfile=~/.glacier-cmd.log
 loglevel=INFO
 output=print

Pour récupérer (ou créer les clés AWS) il faut se connecter ICI

Ce fichier de conf va également vous permettre de sélectionner la zone géographique où seront hébergés vos données (les tarifs varient légèrement en fonction de ce paramètre : toutes les infos sont ICI ).

Les valeurs possibles pour "region" sont donc les suivantes :


us-east-1 pour : US - Virginia
us-west-1 pour : US - N. California
us-west-2 pour : US - Oregon
eu-west-1 pour : EU - Ireland
ap-northeast-1 pour : Asia-Pacific - Tokyo

On peut ensuite passer à l'utilisation de glacier-cmd. Les principales commandes sont les suivantes :

  • Pour créer un dépôt ("vault") de stockage (afin d'y déposer ensuite des archives)
    glacier-cmd mkvault <le_nom_de_votre_dépôt>
    
  • Pour lister les dépôts disponibles :
    glacier-cmd lsvault
  • Pour obtenir le contenu (liste des archives/fichiers) d'un dépôt (attention le résultat de cette commande ne sera disponible qu'après 4h d'attente ...)
    glacier-cmd inventory <le_nom_de_votre_dépôt>
  • Pour uploader une archive (fichier) au sein d'un dépôt :
    glacier-cmd upload <nom_de_votre_dépôt> <nom_du_fichier_a_uploader> --description "la_description_du_fichier"
  • Pour télécharger les archives (fichiers) contenues au sein d'un dépôt  :

    L'opération se déroule en deux temps:

    1) On lance une demande de récupération de l'archive avec la commande suivante :

    glacier-cmd getarchive <nom_de_votre_dépôt> <id_de_l'archive_à_récupérer>

    NB : On récupère l'id de l'archive avec la commande "inventory" (voir ci-dessus)

    2) Après environ 4h d'attente vous pouvez demander le téléchargement de l'archive avec cette commande :

    glacier-cmd download <nom_de_votre_dépôt> <id_de_l'archive_à_récupérer> --outfile <nom_du_fichier>

    Donc pour résumer une récupération "type" s'effectue en 8h : 4h pour obtenir le contenu du dépôt (avec les identifiants d'archives) puis 4h pour obtenir une archive prête à être téléchargée et enfin le temps nécessaire au téléchargement du fichier ! Mieux vaut ne pas être pressé ...

  • Pour obtenir la liste de jobs en cours (inventaire, récupération ...) :
glacier-cmd listjobs nom_de_votre_dépôt

Ce how-to n'a bien entendu pas vocation à être exhaustif. Si vous souhaitez découvrir l'intégralité des fonctionnalités proposées par glacier-cmd, je vous invite à consulter la documentation disponible ICI .

Dans un prochain billet, je vous présenterai une solution permettant d'automatiser le backup d'un serveur Linux vers Glacier ...

BackupBox : transferez facilement vos données entre les services de stockage

Nous sommes de plus en plus nombreux à placer nos données sur des systèmes de stockage comme DropBox, Skydrive, Google Drive, Box et il nous arrive de vouloir changer de fournisseur (ou bien de simplement vouloir effectuer une sauvegarde de nos fichiers sur une autre plateforme). Cette tâche peut quelquefois s’avérer fastidieuse : télécharger l'intégralité de ses données et tout renvoyer sur le nouveau système. Avec une simple connexion ADSL l'opération va  très probablement s'éterniser ...

BackupBox permet, tout simplement, de migrer vos données d'une plate-forme vers une autre directement de serveurs à serveurs. Simple et efficace !

Derrière cette façade plutôt simpliste on découvre en fait un système beaucoup plus complet autorisant certaines opérations intéressantes : comme par exemple la connexion à intervalles réguliers sur un espace ftp pour en copier le contenu sur une Dropbox. On peut assurer la même opération avec les données d'une base MySQL. Ou bien encore demander une copie de sauvegarde d'un compte Skydrive vers une Dropbox une fois par semaine ... Bref les possibilités d'utilisation sont multiples et plutôt séduisantes !

Concernant la sécurité de BackupBox :

  • vous n’aurez pas à communiquer vos logins et mots de passe des services tiers. En effet, quand cela est possible, l'Oauth est privilégié. Bien sûr la connexion à un serveur FTP ou MySQL imposera de communiquer vos identifiants à BackupBox
  • les échanges entre les services, sont, lorsque c'est possible, effectués en utilisant SSL
  • BackupBox s'engage à ne conserver aucune donnée dès que le transfert est achevé

Tout cela semble intéressant. Un bémol toutefois : le prix du service ! Vous pouvez utiliser BackupBox gratuitement mais avec des limitations assez importantes : 1 Go max de données par transfert, 10 transferts par mois, un seul transfert à la fois et pas de planification. Pour obtenir l’intégralité des fonctionnalités il va falloir payer, et c'est pas donné ... Le premier forfait est facturé 20$ par mois.

Pour résumer, BackupBox me semble être un service intéressant et utile mais proposé à un tarif inadapté ( un forfait légèrement inférieur à 10$ / mois aurait certainement été plus judicieux ...).

[HOWTO] Automatisez la sauvegarde de vos serveurs avec « Rdiff-Backup »

Si vous administrez des serveurs Linux vous vous êtes déjà probablement interrogé sur la meilleure façon de sauvegarder vos systèmes et données. La télé-sauvegarde est une option particulièrement intéressante. Bien que Rsync paraîsse naturellement le dispositif le mieux adapté à cette tâche une autre solution existe : Rdiff-backup.

Moins connu, ce dernier présente de nombreux avantages : une gestion optimisée des incréments, la création d'un miroir de fichiers ou de répertoires, la gestion automatisée de l'effacement des anciens incréments, la compression des données transférées ... Rdiff-Backup est utilisable en "local" mais également dans le cadre d'un système de télé-sauvegarde. Dans ce cas les échanges sont cryptés en utilisant (de manière transparente) le protocole SSH.

L'objectif de ce how-to est de présenter une méthode permettant de réaliser une sauvegarde à distance, sécurisée, automatisée, sans aucune intervention de la part de l'administrateur (les procédures d'authentification reposant sur un système de clés asymétriques).

La distribution utilisée pour la création de ce how-to est une "Ubuntu 10.04 LTS server", mais il ne devrait pas y avoir beaucoup de différences si vous utilisez un autre Linux. Un serveur SSH doit également être présent sur les 2 machines.

Dernière précision : afin de simplifier cette procédure j'utilise volontairement l'utilisateur "root" pour réaliser la sauvegarde. Pour optimiser la sécurité, les "puristes" pourront bien entendu adapter cette  méthode  avec un autre compte utilisateur ...

Dans le cadre de ce tutoriel nous allons utiliser deux serveurs :

  • "srv-prod ": qui correspond au serveur "à sauvegarder" (IP dans ce how-to : 192.168.0.157)
  • "srv-backup" : qui correspond au serveur destiné à héberger la sauvegarde de srv-prod

On procède tout d'abord à l'installation de "Rdiff-Backup" en lançant (sur les 2 serveurs) la commande

apt-get install rdiff-backup

On va ensuite générer les clés SSH nécessaires à l'authentification de "srv-backup" auprès de "srv-prod". Créez (si ce n'est pas déjà fait) sur "srv-backup" un répertoire nommé "/root/.ssh/". On lance ensuite (sur ce même serveur)  la commande suivante :

ssh-keygen -t rsa -b 4096

Répondez de la manière suivante aux questions posées par l'application :

Enter file in which to save the key (/root/.ssh/id_rsa): /root/.ssh/rdiff_id_rsa

Ne rien mentionner en réponse à la question "Enter passphrase (empty for no passphrase):". Idem pour "Enter same passphrase again:"

Suite à cette opération, vous trouverez 2 fichiers au sein du répertoire "/root/.ssh" :

  • rdiff_id_rsa : qui correspond à votre clé privée
  • rdiff_id_rsa.pub : votre clé publique (qui devra, par la suite, être positionnée sur le serveur de production ...

Pour ce faire il est nécessaire d'éditer le fichier "rdiff_id_rsa.pub" (avec un petit "cat /root/.ssh/rdiff_id_rsa.pub" par exemple). Vous devriez obtenir une chaîne de la forme :

Bien entendu le contenu de votre fichier sera différent car il s'agit de clés générées aléatoirement (heureusement ... 😉 )

Copiez ensuite cette chaîne de caractères afin de pouvoir la coller dans le fichier "/root/.ssh/authorized_keys2" du serveur de production ("srv-prod"). Dans l'hypothèse où ce répertoire (".ssh") et ce fichier ("authorized_keys2") n'existent pas il sera nécessaire de les créer manuellement. Attention aux droits à appliquer sur le fichier "authorized_keys2" qui doivent être positionnés à 644 ("chmod 644 /root/.ssh/authorized_keys2"). Il faut également s'assurer de copier la chaîne de caractères tel-quel sans y ajouter aucun caractère n'y retour chariot.

Une fois la clé copiée, il est nécessaire d'y ajouter (sur "srv-prod") certaines options comme illustré dans l'exemple ci-dessous :

Les directives à placer devant la clé sont les suivantes (il ne vous reste plus qu'à copier / coller ...) : "command="rdiff-backup --server --restrict-read-only /",no-port-forwarding,no-X11-forwarding,no-pty ". Il s'agit de mesures de sécurités complémentaires. En effet le serveur de backup s'authentifiant de manière automatisée, il est intéressant de limiter les opérations réalisables avec ce compte (pas de terminal, opération en lecture seule uniquement, pas de forward de ports ...).

Sur le serveur "srv-backup" créez le fichier "/root/.ssh/config". Ce dernier va intégrer les éléments nécessaires à la connexion automatique au serveur de production. Le contenu de ce fichier est le suivant :

host 192.168.0.157
hostname 192.168.0.157
user root
identityfile /root/.ssh/rdiff_id_rsa
compression yes
protocol 2

Bien entendu vous devez remplacer l'IP (192.168.0.157) par l'adresse de votre serveur de prod (ou bien par son nom pleinement qualifié). Vous pouvez également modifier le paramètre "compression" en le passant à "no" si vous ne souhaitez pas compresser les données échangées entre les deux serveurs.

Créez ensuite, sur "srv-backup" un répertoire au sein duquel seront stockées les données sauvegardées. Par exemple "mkdir /backup"

Il ne reste plus qu'à essayer de générer une sauvegarde d'un des répertoires du serveur de production ("/etc" par exemple) en utilisant une commande du style :

rdiff-backup -v 5 root@192.168.0.157::/etc /backup/etc

Vous allez voir apparaître un message du type :

The authenticity of host '192.168.0.157 (192.168.0.157)' can't be established.
RSA key fingerprint is 60:6b:12:0a:6f:bf:98:da:83:5c:43:16:f2:72:3c:29.
Are you sure you want to continue connecting (yes/no)?

répondez "yes" (cette question ne sera plus posée par la suite). Vous devriez voir la sauvegarde se réaliser. Un petit contrôle du répertoire "/backup/etc" confirme la présence des fichiers.

Vous pouvez automatiser (via le crontab) cette tâche de sauvegarde en vous inspirant, après adaptation, de ce script (merci à  @ledeuns pour sa contribution ) :

#!/bin/bash</p>
RETCODE=""

### Sauvegarde ###

/usr/bin/rdiff-backup  root@192.168.0.157::/var /backup/var
if [ $? -ne 0 ]; then RETCODE="VAR;"; fi
/usr/bin/rdiff-backup  root@192.168.0.157::/etc /backup/etc
if [ $? -ne 0 ]; then RETCODE="ETC;$RETCODE"; fi
/usr/bin/rdiff-backup root@192.168.0.157::/home /backup/home
if [ $? -ne 0 ]; then RETCODE="HOME;$RETCODE"; fi
/usr/bin/rdiff-backup root@192.168.0.157::/root /backup/root
if [ $? -ne 0 ]; then RETCODE="ROOT;$RETCODE"; fi
/usr/bin/rdiff-backup root@192.168.0.157::/usr /backup/usr
if [ $? -ne 0 ]; then RETCODE="USR;$RETCODE"; fi

### Effacement des increments datant de plus de 2 semaines (2W) ###

/usr/bin/rdiff-backup --force --remove-older-than 2W /backup/var/
if [ $? -ne 0 ]; then RETCODE="DELVAR;$RETCODE"; fi
/usr/bin/rdiff-backup --force --remove-older-than 2W /backup/etc/
if [ $? -ne 0 ]; then RETCODE="DELETC;$RETCODE"; fi
/usr/bin/rdiff-backup --force --remove-older-than 2W /backup/home/
if [ $? -ne 0 ]; then RETCODE="DELHOME;$RETCODE"; fi
/usr/bin/rdiff-backup --force --remove-older-than 2W /backup/root/
if [ $? -ne 0 ]; then RETCODE="DELROOT;$RETCODE"; fi
/usr/bin/rdiff-backup --force --remove-older-than 2W /backup/usr/
if [ $? -ne 0 ]; then RETCODE="DELUSR;$RETCODE"; fi

### Envoi du rapport par mail ###

if [ -z $RETCODE ]; then
echo "" | mail -s "Sauvegarde effectuee" votre@adresse.fr
else
echo "$RETCODE" | mail -s "Sauvegarde en erreur" votre@adresse.fr
fi

Ce how-to n'ayant pas vocation à décrire d'une manière exhaustive le fonctionnement de Rdiff-Backup, je vous invite à consulter le manuel détaillé disponible à cette adresse (vous pourrez y découvrir l'ensemble des commandes et options disponibles) !

  • Le site officiel est disponible ICI

Humyo.fr : 20Go de stockage gratuit !

humyo

Ok, certains vont dire "un site de stockage de plus ..." et ils n'auront pas tout à fait tort ! Il est vrai que l'offre en la matière est plutôt bien garnie. Sans compter que "Google Drive" ne devrait plus tarder à arriver (enfin espérons ...).

Toutefois, après avoir testé le service je reconnais que Humyo.fr sort du lot : il est plutôt agréable à utiliser, l'interface est légère et bien conçue, un logiciel de synchro avec votre PC (client MAC/Linux disponible courant 2009) est également proposé. L'espace mis à disposition est  conséquent, surtout pour une offre gratuite : 10Go. Mais encore plus intéressant : pour toute inscription avant le 9 avril 2009 Humyo vous offre le double de capacité "à vie" (tant que le service est "en vie" pour être plus précis 😉 ).

Autre point interessant : le logiciel pour PC permet également d'accéder à l'espace de stockage au travers d'un lecteur virtuel (comme s'il s'agissait d'un disque dur intégré à la machine). Pratique, par exemple, pour réaliser une sauvegarde grâce à logiciel "standard"  (Cobian Backup par exemple).

Gladinet : le partage facile …

gladinet

J'ai un peu hésité avant de vous parler de ce nouveau service mais après réflexion je pense qu'il pourrait peut être rendre service à certains d'entre vous.

Le concept est assez simple (bien qu'il existe visiblement un nombre important de fonctionnalités) : en fait Gladinet vous propose de "monter", sous la forme d'un lecteur réseau, certains espaces de stockages web : Microsoft Skydrive (qui au passage propose désormais une capacité de stockage de 25Go !), Amazon S3, Google Documents, Google Picasa ... Les différents fichiers présents sur ces espaces deviennent alors accessibles comme s'ils étaient stockés sur l'un des disques de votre PC.

Une autre fonctionnalité que je trouve assez sympa (et plutôt surprenante) : la possibilité d'ouvrir (et de sauvegarder) un fichier bureautique stocké localement sur votre PC à l'aide d'une application en ligne. Allez jeter un œil sur cette video pour un exemple avec ZoHo, c'est bluffant ...

Il est également possible de partager, via Gladinet, des répertoires entres vos différentes machines (à conditions que ces dernières restent allumées en permanence). Un exemple en video ICI

Bon, il y a quand même quelques points négatifs ... Tout d'abord le système est basé sur les "dernières technologies Microsoft" 😉. En ce qui me concerne, et pour tester ce produit sur ma machine de test virtuelle, j'ai du mettre à jour tout le bouzin ... .NET framework, MS Installer, bref tout y est passé ... Par principe, je n'aime pas trop non plus les applications qui modifient le comportement de Windows, mais bon, ici c'est le concept même du système.

Le plus gênant pour moi est certainement le fait de confier mes identifiants personnels à un logiciel dont je ne connais pas l'éditeur. En ce qui me concerne, c'est totalement rédhibitoire !

Si l'expérience vous tente n'hésitez pas à aller faire un tour ICI

50Go de stockage en ligne …

... et tout ça gratuitement ! 🙂

C'est ce que vous propose ce nouveau site dédié au stockage de vos données en ligne. Visiblement tous les types de fichiers sont acceptés, et il ne semble pas y avoir de restriction en terme de trafic mensuel. Vous avez également la possibilité de partager certains fichiers avec vos contacts (même si ces derniers ne sont pas inscrits sur ADrive - utilisation d'un simple lien HTML pour le download).

Ici pas de fioritures inutiles, on va directement à l'essentiel : upload (via un module simple mais bien réalisé), download et partage éventuel. Visiblement d'autres fonctions (peut être payantes) sont également en cours de développement : snapshot, client "desktop", augmentation de l'espace de stockage ...

Pour résumer Adrive est un système simple et rudimentaire mais finalement assez plaisant à utiliser. L'inscription est rapide, mais attention (pour ceux qui ne comprennent pas l'anglais) il faut absolument choisir un mot de passe complexe : un moins 8 caractères comprenant au moins une majuscule et un nombre (assez contraignant comme système, mais bon c'est pour la bonne cause ...).

Send2MailByFree : utilisez dl.free.fr encore plus facilement …

logo_free.png

Il y a quelques temps je vous avais parlé du système de transfert de fichiers proposé par Free : dl.free.fr (ICI & ICI). L'un des lecteurs de mon blog (Julien) vient de m'indiquer au travers d'un commentaire qu'il avait créé un script permettant de placer trés facilement un fichier sur ce système par le biais d'un simple "clic droit" au sein de l'explorateur Windows ! Le système et trés simple mais il fallait y penser !!!

  • Tout est expliqué ICI

Neobebox.com

neobebox.png

J'avais pourtant décidé de ne plus parler de sites de stockage de fichiers en ligne 😉 , mais après avoir découvert "neobebox.com" je vais quand même faire une exception ... En effet il s'agit à mon avis du site le plus riche et le mieux réalisé dans cette catégorie. L'interface est particulièrement remarquable ! A signaler également la possibilité de s'authentifier afin de pouvoir visualiser les fichiers en cours de partage, de retrouver les liens, de réinitialiser la durée de validité (disponibilité) du fichier, de voir le nombre de téléchargements effectués ...

Je vous laisse découvrir "neobebox.com" par vous même, vous ne devriez pas être déçus !!!