IL y a une pléiade de logiciels permettant d'aspirer un site internet sur son ordinateur, mais quand on peut faire plus simple, et plus rapide, pourquoi se priver.

Cette simple petite ligne de commande vous permet de récupérer le contenu Front d'un site lorsque les accès FTP ne sont pas disponibles ( chose fréquente lorsqu'un client change de prestataire ....). Pratique pour faire une copie sur un serveur distant

wget -r -k -np --user-agent=Firefox http://www.exemple.com

Comme souvent, l'option -r indique la récursivité de l'opération. wget suivra tous les liens de la page

L'option -k permet de réécrire les liens du site, pour que votre copie soit consultable localement. Les liens sont donc modifiés et pointe sur votre serveur local

-np empêche de remonter le répertoire. user-agent, et bien c'est pour se faire passer pour un internaute utilisant le navigateur Firefox, afin de s'assurer de recevoir une copie consultable depuis un navigateur classique

Le principal avantage de cette commande, c'est que vous ne monopolisez pas votre connexion adsl/fibre pour cette opération, et, suivant votre hébergeur, profitez d'une bande passante de 1 Gb/s. De quoi fortement diminuer la durée de votre copie.

Vous pouvez aussi utiliser httrack :

httrack "exemple.com" -O "/tmp/exemple" "+*.exemple.com/*" -v

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.