User since
2005-03-07
38
Artikel
BenutzerIn
Hallo zusammen!
Ich habe eine Frage!
Ich will von diversen Seiten welche Reports erstellen eine Zusammenfassung erstellen um nicht auf jede einzelne Seite zugreifen zu müssen.
Was für Möglichkeiten habe ich da mit Perl wenn ich teilweise auch die Attribute (html) wie Farbe, Datum oder ähnliches berücksichtigen muss?
Die Reports welche ich lesen will sind teilweise .html files welche immer wieder generiert werden, teilweise Scripts welche bestimmte parameter benötigen, damit diese einen Output erzeugen.
Grüsse
Dani
User since
2003-08-04
5246
Artikel
ModeratorIn
hallo,
bin mir gerade nicht sicher, was du genau wissen willst...
1. wie kann man eine webseite mit perl downloaden?
siehe:
LWP::Simple,
LWP::UserAgent,
WWW::Mechanize,
WWW::Mechanize::Shell
2. wie man mit Frames arbeiten kann?
3. wie man html parsen kann und das layout veraendern kann?
4. wie man den Eigentuemer der seiten fragt, ob man sie verwenden darf?
User since
2005-03-07
38
Artikel
BenutzerIn
hy!
Ich will bei teils html sites teils cgi scripts den inhalt auslesen und weiterverarbeiten.
Das heisst, ein teil meines scripts soll urls aufrufen und den inhalt nach gewissen kriterien durchsuchen und speichern.
wie geht das?
Grüsse
User since
2003-08-04
5246
Artikel
ModeratorIn
fuer das holen der Seiten duerfte vermutlich
LWP::Simple ausreichend sein (wenn nicht, dann
WWW::Mechanize).
Fuers parsen gibt's eine menge Module... z.B.
HTML::Parser
suche auch mal hier im forum nach diesen Modulen, wenn du mit perldoc nicht mehr weiterkommst.
User since
2005-03-07
38
Artikel
BenutzerIn
Vielen Dank, habe diesen Teil mit CPAN: LWP::Simple gelöst.