Die nachfolgende Kurzanleitung wurde der deutschsprachigen Mailingliste entnommen.
Allgemein:
wget --help GNU Wget 1.8.1, ein nicht-interaktives Netz-Werkzeug zum Download von Dateien. Syntax: wget [OPTION]... [URL]... Erforderliche Argumente zu langen Optionen sind auch bei kurzen Optionen erforderlich.
Beim Start:
-V, --version Programmversion anzeigen -h, --help diese Hilfe anzeigen -b, --background nach dem Starten in den Hintergrund gehen -e, --execute=BEFEHL einen ».wgetrc«-artigen Befehl ausführen
Log-Datei schreiben und Eingabe-Datei:
-o, --output-file=DATEI Protokoll-Meldungen in DATEI schreiben -a, --append-output=DATEI Meldungen der DATEI anhängen -d, --debug Debug-Ausgabe anzeigen -q, --quiet keine Ausgabe von Meldungen -v, --verbose ausführliche Meldungen (Vorgabe) -nv, --non-verbose Meldungen weniger ausführlich, aber nicht »--quiet« -i, --input-file=DATEI in DATEI gelistete URLs holen -F, --force-html Eingabe-Datei als HTML behandeln -B, --base=URL URL relativen Links in »-F -i DATEI« voranstellen --sslcertfile=DATEI optionales Client-Zertifikat. --sslcertkey=SCHLÜSSEL_DATEI optionale SCHLÜSSEL_DATEI für dieses Zertifikat. --egd-file=FILE Dateiname des EGD Sockets.
Download:
--bind-address=ADRESSE für den lokalen Rechner ADRESSE (Hostname oder IP) vorgeben -t, --tries=ZAHL Anzahl der Wiederholversuche auf ZAHL setzen (0 steht für unbegrenzt) -O --output-document=DATEI Dokumente in DATEI schreiben -nc, --no-clobber bestehende Dateien nicht überschreiben oder ».#« Suffix verwenden -c, --continue Fortführung des Downloads einer bereits zum Teil geholten Datei --progress=STYLE Anzeige für den Download auf STYLE setzen -N, --timestamping Nur Dateien holen, die neuer als die lokalen Dateien sind -S, --server-response Antwort des Servers anzeigen --spider kein Download (don't download anything) -T, --timeout=SEKUNDEN den Lese-Timeout auf SEKUNDEN setzen -w, --wait=SEKUNDEN SEKUNDEN zwischen den Downloads warten --waitretry=SEKUNDEN 1...SEKUNDEN zwischen den erneuten Versuchen warten --random-wait Zwischen 0 und 2*WAIT Sekunden zwischen Versuchen warten -Y, --proxy=on/off Proxy ein (»on«) oder aus (»off«) stellen -Q, --quota=ZAHL Kontingent für den Download auf ZAHL setzen --limit-rate=RATE Datenrate beim Download auf RATE begrenzen Verzeichnisse: -nd --no-directories keine Verzeichnisse anlegen -x, --force-directories Anlegen von Verzeichnissen erwingen -nH, --no-host-directories keine Host-Verzeichnisse anlegen -P, --directory-prefix=PREFIX Dateien unter dem Verzeichnis PREFIX/... speichern --cut-dirs=ZAHL ZAHL der Verzeichnisebenen der Gegenseite überspringen
HTTP-Optionen:
--http-user=BENUTZER http-Benutzer auf BENUTZER setzen --http-passwd=PASS http-Passwort auf PASS setzen -C, --cache=on/off server-gepufferte Daten erlauben/verbieten (server-cached data) (normalerweise erlaubt) -E, --html-extension alle text/html-Dokumente mit dem Suffix .html speichern --ignore-length das »Content-Length«-Kopffeld ignorieren --header=ZEICHENKETTE ZEICHENKETTE zwischen die Kopfzeilen einfügen --proxy-user=BENUTZER BENUTZER als Proxy-Benutzername setzen --proxy-passwd=PASS PASS als Proxy-Passwort setzen --referer=URL die Kopfzeile `Referer: URL' der HTTP-Anforderung hinzufügen -s, --save-headers den HTTP-Vorspann (header lines) in Datei sichern -U, --user-agent=AGENT als AGENT anstelle of Wget/VERSION identifizieren --no-http-keep-alive »HTTP keep-alive« (ununterbrochene Verbindungen) deaktivieren --cookies=off Cookies nicht verwenden --load-cookies=DATEI Cookies vor der Sitzung aus der DATEI laden --save-cookies=DATEI Cookies nach der Sitzung in der DATEI speichern
FTP-Optionen:
-nr, --dont-remove-listing ».listing«-Dateien nicht entfernen -g, --glob=on/off Dateinamen-»Globbing« ein- (»on«) oder ausstellen (»off«) --passive-ftp den "passiven" Übertragungsmodus verwenden --retr-symlinks falls auftretend, verlinkte Dateien holen (keine Verzeichnisse)
Rekursives Holen:
-r, --recursive rekursiver Download -- mit Umsicht verwenden! -l, --level=Zahl maximale Rekursionstiefe (»inf« oder »0« steht für ohne Begrenzung) --delete-after geholte Dateien nach dem Download löschen -k, --convert-links nicht-relative Links in relative umwandeln -K, --backup-converted vor dem Umwandeln der Datei X, ein Backup als X.orig anlagen. -m, --mirror Kurzform, die »-r -N -l inf -nr« entspricht. -p, --page-requisites alle Bilder usw. holen, die für die Anzeige der HTML-Seite notwendig sind
Rekursiv erlauben/zurückweisen:
-A, --accept=LISTE komma-unterteilte Liste der erlaubten Dateiendungen -R, --reject=LISTE komma-unterteilte Liste der zurückzuweisenden Erweiterungen -D, --domains=LISTE komma-unterteilte Liste der erlaubten Domains --exclude-domains=LISTE komma-unterteilte Liste der zurückzuweisenden Domains --follow-ftp FTP-Verweisen von HTML-Dokumenten aus folgen --follow-tags=LISTE komma-unterteilte Liste der zu folgenden HTML-Tags -G, --ignore-tags=LISTE komma-unterteilte Liste der zu missachtenden HTML-Tags -H, --span-hosts wenn »--recursive«, auch zu fremden Hosts gehen -L, --relative nur relativen Verweisen folgen -I, --include-directories=LISTE Liste der erlaubten Verzeichnisse -X, --exclude-directories=LISTE Liste der auszuschließenden Verzeichnisse -np, --no-parent nicht in das übergeordnete Verzeichnis wechseln