• Willkommen im Linux Club - dem deutschsprachigen Supportforum für GNU/Linux. Registriere dich kostenlos, um alle Inhalte zu sehen und Fragen zu stellen.

Webseite mit Links abspeichern? -> FlashGot?

Habe nun folgendes Problem,
ich möchte gerne eine Webseite komplett abspeichern.
Besser wäre natürlich nur die verweisenden Unterseiten.
Kurz erklärt,es handel sich um meine Gallerie wobei ich nicht jedes Bild einzeln anklicken damit das grössere geladen wirdl um es seperat abzuspeichern.
Das dauert ewig.
Das müsste doch mit FlashGot gehn,aber ich blick noch nicht richtig durch wie.
Oder habt ihr einen Trick auf lager?
 
Mach irgendwo auf der Seite einen Rechtsklick und wähle "Alles mit Flashgot laden" aus.
Dann kann man beim Downloadmanager ggf. noch auswählen, was man alles speichern will, also in diesem Fall nur die Bilder.

Du kriegst nur ein Problem, wenn jedes verlinkte Bild noch auf einer seperaten Seite und nicht direkt verlinkt ist. Dafür soll es aber auch noch eine Lösung geben.
 
also flashgot liefert einfach kein brauchbares ergebnis.
es wird zwar einiges abgespeichert aber nichts was man später aufrufen könnte.

was ich suche wär ein prog mit dem ich ne webseite samt haut und haaren als zip abspeichern kann,
also die index mit all den unterseiten
 
:D
super!!
das progi war genau was ich brauchte,
genial das teil.
schon erstaunlich wie kompetent einem hier geholfen wird.
ich hoffe bald auch die fragen der anderen beantworten zu können,
nur am nerve ist auch net das wahre
:wink:
 
hu.zu früh gefreut...
irgendwie lassen sich die vergrösserten bilder nicht automatisch speichern weil diese per javascript geladen werden.
was ich auch versuche,ich bekomme einfach nur die thumbnails auf den computer.
bei fast 2000 bildern wird das zur lebensaufgabe jedes einzeln zu speichern
:roll:
 
Oben