Thread Insert Into... On Duplicate Key Update...
(20 answers)
Opened by rosti at 2012-05-25 20:39 2012-05-27T08:00:20 rosti wieviel (edit: daten) sinds denn? =) Quote kommt natürlich auf die art der daten an, aber ich z.b. schieb täglich 2-3GB an daten nach mysql, und was da sehr geholfen hat, ist, die datensätze, die öfter vorkommen können, in einen perl-hash zu schreiben und den abzufragen, ob der datensatz schon da war und erst dann mit der db zu kommunizieren. den perl-hash kann man serialisieren und über mehrere cronjob-läufe weiterverwenden (je nach grösse und RAM beliebig lange). das hat wahnsinnig viel gebracht. ausserdem, wie ja schon erwähnt, bulk inserts. wieviel dir das ON DUPLICATE wirklich bringt, würde ich schonmal messen. blind zu optimieren macht keinen spass und bringt dir auch nix für die zukunft. Last edited: 2012-05-27 11:19:29 +0200 (CEST) Always code as if the guy who ends up maintaining your code will be a violent psychopath who knows where you live. -- Damian Conway in "Perl Best Practices"
lesen: Wie frage ich & perlintro brian's Leitfaden für jedes Perl-Problem |