Die Scanregeln sind eine leistungsstarke Funktion, mit der Sie den gewünschten Inhalt genau angeben können. Standardmäßig werden alle Seiten unterhalb der angegebenen URL, einschließlich der links, die sie enthalten, gesichert. Aber auf der LibreOffice-Website zum Beispiel, die auch Download-Links enthält, würde dies bedeuten, dass neben der eigentlichen Homepage auch zahlreiche Programmdateien gepackt würden. Um genauer anzugeben, was Sie herunterladen möchten – und was Sie auf Links überprüfen möchten – können Sie Filter definieren. Wget, ist Teil des GNU-Projekts, der Name leitet sich vom World Wide Web (WWW) ab. Wget ist ein brillantes Tool, das für rekursiven Download nützlich ist, Offline-Anzeige von HTML von lokalen Server und ist für die meisten Plattformen verfügbar, sei es Windows, Mac, Linux. Wget ermöglicht das Herunterladen von Dateien über HTTP, HTTPS und FTP. Darüber hinaus kann es nützlich sein, bei der Spiegelung der gesamten Website sowie Unterstützung für Proxy-Browsing, Anhalten / Wiederaufnahme Downloads. Jetzt führen wir den Befehl wget für eine bestimmte Webseite oder eine Website zum Herunterladen aus. Sie können ganze Websites mit wget herunterladen und die Links in lokale Quellen konvertieren, sodass Sie eine Website offline anzeigen können. Das Dienstprogramm wget versucht auch einen Download erneut, wenn die Verbindung abgebrochen wird, und setzt sie an der Stelle fort, an der sie nach Möglichkeit aufgehört hat, wenn die Verbindung zurückkehrt. Zum Herunterladen von Websites müssen Sie zunächst einen Projektnamen und eine zugeordnete Kategorie definieren oder einen vorhandenen Eintrag auswählen.

Das Tool listet gespeicherte Websites in Gruppen auf, was insbesondere in großen Archiven nützlich ist, da es Ihnen hilft, Ihre Downloads nachzuverfolgen. Sie können WebHTTrack mitteilen, wo dieses Archiv erstellt werden soll, indem Sie den Basispfad definieren. entsprechende Unterverzeichnisse werden automatisch erstellt. Laden Sie bestimmte Dateitypen (z. B. pdf und png) von einer Website herunter. WebHTTrack bietet einen bequemen Ansatz zum Herunterladen ganzer Websites für das Offline-Browsing. Der Clear-Cut-Assistent bietet Funktionen, mit denen Benutzer den Download anpassen können. Das Herunterladen von Online-Inhalten ist jedoch nicht so trivial, wie Sie zunächst denken – externe Links, dynamische Seiten und zahlreiche Links machen dies schnell zu einer Herkulesaufgabe. Weitere Beispiele für den Download finden Sie in unserem Artikel, der 10 Wget Download Command Examples zeigt. Wget ist ein wunderbares Tool, das benutzerdefinierte und gefilterte Download auch auf begrenzte Ressource Machine ermöglicht. Ein Screenshot von wget Download, wo wir eine Website spiegeln (Yahoo.com).

Wenn Sie einen vollständigen Spiegel einer Website erhalten möchten, verwenden Sie den folgenden Schalter, der die Notwendigkeit der Verwendung der Schalter -r, -k und -l beseitigt.