Schrift
Wiki:Tipp zum Debugging: use Data::Dumper; local $Data::Dumper::Useqq = 1; print Dumper \@var;
[thread]1412[/thread]

mod_perl-suchmaschine: lokale site-suchen

Leser: 2


<< >> 5 Einträge, 1 Seite
jan
 2003-11-17 19:50
#13163 #13163
User since
2003-08-04
2536 Artikel
ModeratorIn
[Homepage] [default_avatar]
moin.

kennt jemand eine konfigurierbare, schnelle, freie suchmaschine für den lokalen einsatz auf eine website mit lokalem filesystem-indexing, die mittlere bis große datenmengen verarbeiten kann?
mir kommt's primär auf performance und eher sekundär auf tolle suchmöglichkeiten an, der großteil der suchabfragen werden sowieso einwort-suchen sein.
das ganze, wenn möglich, unter mod_perl. ob's nun mit einer datenbank wie mysql, pssql o.ä. im hintergrund läuft, ist mir gleich.
vorschläge, erfahrungsberichte?
ich habe mich ein bisschen mit swish auseinandergesetzt, bevorzuge aber eine pure-perl-lösung, wo ich selbst weitestgehend hand anlegen kann, wenn irgendwas nicht so läuft, wie ich es gerne hätte.

bin dankbar für jeden hinweis!

gruß,

jan
marky
 2003-11-17 20:56
#13164 #13164
User since
2003-08-15
215 Artikel
BenutzerIn
[Homepage] [default_avatar]
Hallo,

kannst Du die Datenmenge etwas genauer ausdrücken und es ist noch wichtig, ob auch teilwortsuche notwendig ist.

Grundsätzlich ist es bei einer Suchmaschine nicht wirklich wichtig, ob es mod_perl ist oder nicht - die Zeit vergeht beim Suchen in den Daten.

Mfg
Marky
jan
 2003-11-17 21:29
#13165 #13165
User since
2003-08-04
2536 Artikel
ModeratorIn
[Homepage] [default_avatar]
für mich ist es schon wichtig, dass es mod_perl (oder fastcgi oder oder) ist, da die suche relativ stark angefragt ist, sagen wir mal, 1500 suchanfragen pro tag. wäre schön, wenn man das gleich auf dem webserver mit laufen lassen kann (rund 1.000.000 hits/tag). die datenmenge, hm, ich schätze mal, so 5000-10000 dokumente mit 20-30kb im durchschnitt.
wildcards wären natürlich hübsch, sind aber nicht priorität, wichtiger ist die allgemeine performance. ein ausgeklügeltes relevanz-ranking, das zu lasten der performance geht, ist also auch nicht notwendig.
marky
 2003-11-17 21:38
#13166 #13166
User since
2003-08-15
215 Artikel
BenutzerIn
[Homepage] [default_avatar]
Also ich habe eine Suche für eine Seite gemacht, die Faktor 10-20 mehr Traffic und Mengen hatte und es war irrelevant, ob mod_perl oder nicht.

Wenn Du es schnell haben willst und auch eine Teilwortsuche verzichten kannst, dann ist der Wort-Index das richtig, quasi unbegrenzte Datenmenge möglich, hier ist mein Script, das Du sicher auch leicht erweitern oder umbauen kannst

http://www.perlunity.de/perl/scripts/script_webindexplus.shtml

die Worte kannst Du auch in mysql machen, dürfe aber den Server mehr belasten, die Leistungsfähigkeit des WortIndexes hängt auch mit dem Filesystem zusammen, genauer mit der Art des Zugriffes innerhalb einer Verzeichnisliste, im Schnitt wird ein deutscher Text ca. 5000 Worte haben, zu empfehlen ist ein Minimum auf 4 Zeichen, 3 nur, wenn es wirklich sein muss.

Für eine Teilwortsuche, müsste man mal einen Test </pfad/*SUCHEWORT* machen, habe ich noch nicht - jetzt werden halt die suchworte direkt geöffnet, schneller geht es nicht.

Viel Spass ...
Marky
pq
 2003-11-18 11:47
#13167 #13167
User since
2003-08-04
12208 Artikel
Admin1
[Homepage]
user image
in dem online-shop, an dem ich mal mitprogrammiert habe, haben wir Sybase Verity verwendet als
schlagwortsuche nach artikeln. kann ich empfehlen!
Always code as if the guy who ends up maintaining your code will be a violent psychopath who knows where you live. -- Damian Conway in "Perl Best Practices"
lesen: Wiki:Wie frage ich & perlintro Wiki:brian's Leitfaden für jedes Perl-Problem
<< >> 5 Einträge, 1 Seite



View all threads created 2003-11-17 19:50.