Das ist zwar sicherlich richtig, aber für mich der falsche Lösungsweg.
Die Daten werden von einem Firebird Server abgezapft (dort kenn ich den Aufbau der Datenbank nicht, deshalb lass ich sie von der WaWi als CSV speichern), auf einem Linux Rechner verarbeitet und mittels Internet auf einen Webserver übertragen und dort eingespielt.
Das am besten zu verarbeitende Material sind im Moment noch CSV für mich.
2011-10-05T19:46:00
rostiCSV-Datei als Puffer? Nö!
Auch wenn es dafür Module gibt: eine CSV-Datei ist und bleibt eine textlich strukturierte Datei, mit dem Vorteil, dass sie menschlich lesbar und dem Nachteil, dass ein Datentransfer über solche Dateien schweinelangsam ist. Den Vorteil braucht kein Mensch und über den Nachteil brauchen wir nicht zu diskutieren.
Du brauchst: Dateien, die maschinell geschrieben und gelesen werden. Gucke Dir das Modul Storable an, in freeze/thaw sind Algorithmen imlementiert, die beliebige(!) Datenstrukturen in Binärsequenzen (Dateien) serialisieren und umgekehrt aus Binaries auch unzerknittert wieder herstellen. Das ist alles schon fix und fertig und zwar auf Byte-Ebene ;)
Was Dir bleibt sind Überlegungen zu geschickten Datenstrukturen, über die Dein Datentransfer von einem System zum Anderen abgewickelt wird, wie diese zwischenschrittlich in Dateien gepuffert werden, ist völlig uninteressant, das erledigt Storable und IO::File und das würde ich mit Bestimmtheit NICHT über CSV-Dateien machen.
Nurmalso nebenbei ;)
===========
Debian User
===========