Webseite per Batch speichern wie beim FF

Dieses Thema im Forum "Netzwerk, Telefon, Internet" wurde erstellt von MrTumnus, 21. Juni 2011 .

  1. Diese Seite verwendet Cookies. Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies. Weitere Informationen
  1. #1 21. Juni 2011
    Hallo zusammen,

    ich weiß, dass es zu dem Thema tausende Webseiten und Forenbeiträge gibt, aber keiner hilft mir wirklich! Ich habe auch bereits die bekannten Tools curl, wget und httrack mit fast allen Kombinationen durchprobiert und erhalte kein ordentliches Resultat!

    Ich möchte wie beim FF eine Webseite mit den zur Anzeige nötigen Medien speichern, also z.B. auch Medien dir durch CSS eingebunden werden, nicht aber unbedingt durch JS. Die Tools speichern alle zu viele oder zu wenige Medien, nie jedoch die richtigen. Das Tool wget z.B. hat bei SEO URLs und CSS Background Image Probleme und httrack speichert auch die Medien der anderen lokalen Seiten. Ich kann FF selbst nicht nutzen, da ich das per Batch für mehrere Seiten und regelmäßig brauche!

    Kann mir einer helfen entweder die Tools richtig zu nutzen oder ein Tool nennen mit dem dies möglich ist und unter Linux läuft?

    Vielen Dank!

    MfG MrTumnus
     

  2. Anzeige
    Dealz: stark reduzierte Angebote finden.

  3. Videos zum Thema
Die Seite wird geladen...