Mit wget lassen sich einfach Dateien und sogar komplette Internetseiten herunterladen. Der folgende Aufruf lädt eine Datei runter:

1
wget http://www.server.com/grossedatei.tar.gz

Wir können das Downloaden der Datei an einem beliebigen Zeitpunkt unterbrechen (z.B. mit CTRL+C) und dann mit dem -c-Switch an derselben Stelle wieder fortfahren. Wollen wir aus irgend einem Grunde die maximale Downlloadgeschwindigkeit runtersetzen, können wir dies mit –limit-rate tun. Folgender Aufruf setzt das herunterladen einer Datei mit 20 KByte/s fort:

1
wget -c --limit-rate=20k http://www.server.com/bigfile.tar.gz

Auch FTP wird von wget beherrscht. Ich lade meistens mit –passive-ftp herunter, weil aktives FTP von der Firewall geblockt wird:

1
wget --passive-ftp ftp://user:password@www.server.com/anotherfile.tar.gz

Wollen wir eine Seite mit allen Bildern herunterladen, benutzen wir –page-requisites oder kurz -p. Soll wget den Links folgen, teilen wir das mit -r mit und können mit –level n die Tiefe angeben. Ein nützlicher Switch ist noch –no-parent bzw. -np, welcher bewirkt, dass wget nicht in übergeordnete Verzeichnisse geht. Folgender Aufruf saugt die Seite http://server.com/dir/  mit allen Unterdateien (aber nicht übergeordneten, also z.B. http://server.com/anotherdir/ ) 3 Ebenen tief inkl. aller Bilder:

1
wget -r --level 3 -np --page-requisites http://server.com/dir/

Eine weitere nützliche Option ist –user-agent, mit der man sich z.B. als Mozilla ausgeben kann, weil viele Seiten wget blockieren.

Quelle: www.eggdrop.ch