Webseite per Batch speichern wie beim FF

Dieses Thema im Forum "Netzwerk, Telefon, Internet" wurde erstellt von MrTumnus, 21. Juni 2011 .

  1. 21. Juni 2011
    Hallo zusammen,

    ich weiß, dass es zu dem Thema tausende Webseiten und Forenbeiträge gibt, aber keiner hilft mir wirklich! Ich habe auch bereits die bekannten Tools curl, wget und httrack mit fast allen Kombinationen durchprobiert und erhalte kein ordentliches Resultat!

    Ich möchte wie beim FF eine Webseite mit den zur Anzeige nötigen Medien speichern, also z.B. auch Medien dir durch CSS eingebunden werden, nicht aber unbedingt durch JS. Die Tools speichern alle zu viele oder zu wenige Medien, nie jedoch die richtigen. Das Tool wget z.B. hat bei SEO URLs und CSS Background Image Probleme und httrack speichert auch die Medien der anderen lokalen Seiten. Ich kann FF selbst nicht nutzen, da ich das per Batch für mehrere Seiten und regelmäßig brauche!

    Kann mir einer helfen entweder die Tools richtig zu nutzen oder ein Tool nennen mit dem dies möglich ist und unter Linux läuft?

    Vielen Dank!

    MfG MrTumnus
     
  2. Video Script

    Videos zum Themenbereich

    * gefundene Videos auf YouTube, anhand der Überschrift.