Zitat von Klein_Elektro_Bahn im Beitrag #21
danke für den interessanten Tipp. Ich habe das mit der Cache-Funktion soeben mal ausprobiert. Leider werden in den Suchergebnissen aktuell keine Beiträge mehr aus dem ARC-Forum gelistet ...
Hallo K_E_B,
wenn ein grüner Cache-Pfeil vorhanden ist funktioniert es in der Regel. Ein Beispiel :
Klick :Mein Link listet Seiten auf, die die URL des Arnoldforums enthalten. Entweder weil sie Teil des Forums waren oder weil auf anderen Seiten in URLs darauf verlinkt wurde. Den Suchbegriff sollte man mit dem eigenen Nicknamen ergänzen um an die eigenen Beiträge zu kommen. Oder eben einen anderen Begriff hinzufügen, der die Suche einengt.
Hat man nun über den grünen Cache Pfeil diese Seiten gefunden funktionieren die dortigen Links allerdings nicht. Die Links führen ja alle nicht zum Google Cache sondern zur gelöschten Originalseite. Man muss sich also immer über die Ursprungsuche, weitere Suchbegriffe und die grünen Cachepfeile vorwärts bewegen.
Es gibt aber auch noch andere Möglichkeiten wie z. B.
www.archive.org. Dort werden Webseiten von Zeit zu Zeit gespiegelt und bleiben aufrufbar. Auch da gibt es Lücken aber viele Suchen enden erfolgreich. Hier gibt es weitere Hinweise :
http://www.google-cache.de/Übrigens kann man Google auch sagen, dass er nur auf einer bestimmten Seite suchen soll. So kann man zum Beispiel alle PDF-Files auf maerklin.de auflisten :
Klick :Es gibt auch Programme, die diese 4300 PDF Files dann in 20 Minuten automatisch herunterladen aber da kommen wir langsam in graue Bereiche.
Die Suche mit der Kombination site: und filetype: bringt uns im Falle des Arnoldforums aber nicht weiter. Google würde dann nur auf der alten Originalseite nachschauen und die gibt es ja nicht mehr.
Es gibt auch Programme, die eine Webseite komplett herunterladen, incl. aller Bilder und mit funktionierenden Links. Ein Beispiel wäre :
http://www.chip.de/downloads/WinHTTrack_13008895.htmlDas Programm ist absolut legal, da es dies nur macht wenn der Admin der betreffenden Seite keine Sperrvermerk in einer Datei robots.txt gesetzt hat. Es gibt natürlich auch Programme, die diesen Sperrvermerk ignorieren aber da sind wir dann schon jenseits des grauen Bereiches.
Grüße aus dem Odenwald.
Charles