Può essere molto utile avere un backup completo del proprio sito in locale per sicurezza.
Prima di tutto bisogna installare ncftp che è un client ftp testuale che supporta le copie incrementali (scarica solo i file effettivamente cambiati)
Aprire la consolle di ubuntu e digitare
apt-get install ncftp
Questo è il comando per fare un download:
ncftpget -u [username ftp] -p [password ftp] -R [Indirizzo sito ftp] [cartella locale di destinazione] [cartella remota di origine]/*
esempio:
ncftpget -u claudio -p password -R www.webtorbe.it /home/backup/backupgiornaliero/ httpdocs/*
Per automatizzare il download basta creare un file in /root/ chiamato backupsito.sh così formato:
#!/bin/bash
ncftpget -u claudio -p password -R www.webtorbe.it /home/backup/backupgiornaliero/ httpdocs/*
Salvate il file e rendetelo eseguibile
chmod +x /root/backupsito.sh
Ogni volta che eseguite backupsito.sh con il comando sh /root/backupsito.sh verrà fatto un backup incrementale del vostro sito web.
Se volete un backup completo vi consiglio questo metodo:
Create un file in /root/ chamato backupsitocompl.sh così formato:
#!/bin/bash
mkdir /home/backup/$(date +%d%m%y)comp
ncftpget -u claudio -p password-R www.webtorbe.it /home/backup/$(date +%d%m%y)comp/ httpdocs/*
Ok questo vi crea una nuova cartella in /home/backup/ con la data del backup e all’interno ci salva un backup completo.
Adesso è ora di aggiungere un cron per automatizzare il tutto:
digitate crontab -e
e aggiungete queste linee:
0 3 * * * sh /root/backupsito.sh
0 4 ** 6 sh /root/backupsitocompl.sh
Così facendo viene eseguito ogni notte alle 3 backupsito.sh e ogni sabato alle 4 backupsitocompl.sh
Attenzione! Ovviamente il pc deve essere acceso quando è eseguito il comando
Finalmente! Era da tempo che cercavo una soluzione del genere per linux, purtroppo si trova solo materiale per backup DA locale A remoto.
Grazie!