3 liens privés
Une alternative à HTTrack.
wget \
--recursive \
--no-clobber \
--continue \
--page-requisites \
--html-extension \
--convert-links \
--domains thetrove.net \
--no-parent \
<mon url>
wget -m ftp://USER:PASSWORD@SERVEURFTP/www
via korben
Une page qui retourne :
<html>
blabla
Version : <version>
blabla
</html>
Récupérer la version....
-
echo $(wget <URL>) | sed -rn "s/.Version : ([^^M]+)^M./\1/p"
KO : la mise sur 1 ligne de toute la page ne marche pas avec le pipe (même avec tr "\n" ",") -
wget -qO- http://hermes-sveltest:18090/emissaire-pub/index.html | sed -rn "s/.Version :(.)/\1/p"
OK
wget -qO- http://hermes-sveltest:18090/emissaire-pub/index.html | awk '/.Version :(.)/{print $1}'
KO : awk ne gère pas les sous-groupes des regex
-
wget -qO- http://hermes-sveltest:18090/emissaire-pub/index.html | perl -n -e'/.Version :(.)/ && print $1'
KO : erreur quelque part dans le script perl -
wget -qO- http://hermes-sveltest:18090/emissaire-pub/index.html | grep Version | cut -d: -f2
OK
wget -r -l5 -k -E -A html,pdf,docx "http://www.monsite.com"
-r : recursive
-l5 : profondeur (level) pour la récursion
-k : conversion des liens (pour pouvoir consulter le site en local)
-E : convertit une URL qui se termine .php en .html si le content-type est html
-A : filtrer pour sélectionner les types de ficiers chargés
explainshell : http://explainshell.com/explain/wget?args=-r+-l5+-k+-E+-A+html%2Cpdf%2Cdocx+%22http%3A%2F%2Fwww.monsite.com%22