robots.txt - Cachen verbieten

Dieses Thema im Forum "Webentwicklung" wurde erstellt von Heimatærde, 18. Januar 2009 .

Schlagworte:
  1. Diese Seite verwendet Cookies. Wenn du dich weiterhin auf dieser Seite aufhältst, akzeptierst du unseren Einsatz von Cookies. Weitere Informationen
  1. #1 18. Januar 2009
    Mahlzeit,

    möchte kurz wissen ob es möglich ist mit der robots.txt das Aufnehmen in einen Cache (archive.org, google etc.) zu unterbinden, oder ob das nur via

    HTML:
    <META NAME="ROBOTS" CONTENT="NOARCHIVE">
    im <HEAD> Bereich möglich ist.

    Grüße
    Heimatærde
     

  2. Anzeige
  3. #2 19. Januar 2009
    AW: robots.txt - Cachen verbieten

    auf die schnelle fällt mir da auch keine andere lösung ein.

    ganz aus dem index soll die website ja nicht? denn das könntest du über die robots.txt einstellen.

    User-Agent: googlebot
    Disallow: /
     
  4. #3 19. Januar 2009
    AW: robots.txt - Cachen verbieten

    ne, kann ruhig gefunden werden. nur möchte ich eben den inhalt eigenständig und sofort entfernen können ohne die lästigen cache backups bei google zu hinterlassen.

    habe es jetzt einfach über den meta tag im template gemacht. mal sehn was passiert ^^
     

  5. Videos zum Thema
Die Seite wird geladen...
Similar Threads - robots txt Cachen
  1. robots.txt syntax

    Romka , 30. August 2013 , im Forum: Hosting & Server
    Antworten:
    0
    Aufrufe:
    1.269
  2. Zombies vs. Robots

    Night Lord , 23. Februar 2011 , im Forum: Kino, Filme, Tv
    Antworten:
    7
    Aufrufe:
    537
  3. Antworten:
    2
    Aufrufe:
    514
  4. Microbots "fantastische Reise"

    drstraleman , 29. Januar 2009 , im Forum: Netzwelt
    Antworten:
    7
    Aufrufe:
    694
  5. Weißes Haus Robots.txt

    LilRomeo , 22. Oktober 2008 , im Forum: Webentwicklung
    Antworten:
    4
    Aufrufe:
    411