[Java] Webcrawler - URL download & save to file

Dieses Thema im Forum "Programmierung & Entwicklung" wurde erstellt von TR!xXZT4R, 22. Januar 2014 .

Status des Themas:
Es sind keine weiteren Antworten möglich.
  1. 22. Januar 2014
    Liebe RRler,

    ich bin seit 2 Tagen mit Java und IRC ein bisschen am rum experimentieren.
    Mein Ziel ist es, einen Bot in einen IRC Channel einzubinden, welcher viele tolle Möglichkeiten bietet.

    Als Beispiel begrüßt er jetzt schon Neuankömmlinge im Chat oder kickt Leute welche mit Schimpfwörtern um sich schleudern.
    Er gibt auch auf Anfrage die Uhrzeit wieder.

    Jetzt kommt aber (für mich) der interessanteste Punkt. Ich möchte dass er mir alle Bilddateien die im Channel gepostet werden, lokal herunterlädt.
    Sowas nennt man Webcrawler und davon gibt es schon viele jedoch brauch ich gar keine neuen Klassen etc, sondern nur eine Abfrage.

    Die Idee: Sobald jemand einen Link postet welcher mit ".jpg" endet , soll er aktiv werden.. (das funktioniert schon bereits).

    Code:
     if(message.contains(".jpg")){
     entnehme URL --> speichere das Bild --> bennene es nach der URL
     }
    da ich die Variable "message" habe (String) sind diese schritte eigentlich nicht schwer duchzuführen
    sowas wie: URL = new URL(message);
    es soll eben nun geprüft werden ob das wirklich eine URL zu einem Bild ist , und wenn JA , Speichere sie mit der URL als Namen als Bilddatei ab.
    Ich verstehe nur nicht wir ich angeben kann wohin es die Datei speichern soll

    Ich bin über jeden Hinweis froh

    MfG TR!xX


    Edit: Falls iwas unklar ist oder Fragen sind , einfach fragen ! Ich denke ihr braucht sicher noch einige Infos , jedoch will ich nicht den gesamten Code von diesem Bot hier rein posten.
     
  2. 23. Januar 2014
    AW: [Java] Webcrawler - URL download & save to file

    Eine minute Google benutzt, ersten Eintrag von Stackoverflow angeklickt:

    how to download image from any web page in java - Stack Overflow

    sollte eigentlich verständlich sein.
     
  3. 24. Januar 2014
    AW: [Java] Webcrawler - URL download & save to file

    naja.. habe ja oben schon geschrieben, dass ich einige gefunden habe , damit aber nichts anfangen kann. Ich will ja nicht so sein und mich beschweren , weil ich über jede Hilfe dankbar bin, aber nach einem kompletten Sourcecode ahbe ich ja nicht gesucht.. sondern nur eine Hilfe beim erstellen der Methode , und vielleicht eine kleine Erklärung wie das funktionieren kann. Denn nur copy-paste aus diesem Sourcecode hilft mir leider nicht

    Edit: wobei der eine Eintrag auf der Seite schon mal recht hilfreich aussieht. Ich muss jetzt nur noch herausfinden wie das ganze so funktioniert und es an meinen Bot anpassen! Ich danke dir recht herzlich für deine Hilfe xolox!
     
  4. 24. Januar 2014
    AW: [Java] Webcrawler - URL download & save to file

    Das ist kein Crawler sondern ein ganz normaler Http-request.

    Stichwort: Regulärer Ausdruck / Regular Expression / Regex. Falls du auf Nummer sicher gehen willst, überprüfe den MIME-Type der Zieldatei.

    Da sollte xolox Link hilfreich sein.

    Mit File (Java Platform SE 7 ) spezifizierst du in Java eine Datei. Ist der angegebene Pfad nicht absolut, dann wird er relativ zum working directory, also dem Ort an dem dein Programm liegt, interpretiert.
    Siehe dazu auch Galileo Computing :: Java ist auch eine Insel

    Gruß,
    Figger
     
  5. 28. Januar 2014
    AW: [Java] Webcrawler - URL download & save to file

    Alles Klar, ja habs auch korrigiert, es hat mir doch weiter geholfen Vielen Dank euch beiden für die Hilfe!

    Kann geclosed werden
     
  6. Video Script

    Videos zum Themenbereich

    * gefundene Videos auf YouTube, anhand der Überschrift.