Moin, hier http://www.netzkritik.de/art/215.shtml habe ich gerade einen interessanten Ansatz gelesen, das Web zu durchsuchen: http://www.orase.de/ ist eine Suchmaschine ohne eigene Datenbank, in der die Seiten zwischengespeichert werden. Bei jeder Suchanfrage wird das Web in Echtzeit durchsucht. Dabei werden (Zitat Artikel) "sogenannte Expertenseiten" wie Wikipedia oder dmoz.org nach passenden Links durchsucht. Das soll bei "Allerweltsbegriffen" bessere Ergebnisse als Google liefern. Soweit der Artikel.
Das ganz ist natürlich ein interessanter Ansatz, birgt natürlich aber auch Risiken: Wenn das überhaupt nicht gecached wird, kann das bei der Steigerung der Bekanntheit zu ner Menge zusätzlichem Traffic führen, und die Wikipedia ist auch so nicht besonders schnell. Vielleicht sollte man dem Betreiber nahelegen, irgendwann mal selbst die Wikipedia zu spiegeln, o.ä.
-Ben