Robert Michel wrote:
Nils Kehrein schrieb:
- Eine Art Distributed-Urv-Check
(arbeite ich dran)
Gibt es demnächst Details über Dein Skript zum Mitdenken?
Ich versuche mal einen kurzen Abriss:
Wie es im Moment läuft: PHP-Programm importiert Artikelliste und holt Artikelquelltexte, läuft auf der Kommandozeile. Aus jedem Artikel der geprüft wird, werden bis max. 6 Queries a 6 Wörter geholt und bei Google abgefeuert. Ergebnis wird in einer HTML-Datei aufbereitet wie bei [[Benutzer:PyBot]].
Von mir geplant: Grundsätzliche Struktur erhalten, ein Webinterface das darauf angewiesen ist, dass ein Benutzer von Zeit zu Zeit vorbeischaut und sich als Rechenzeit-Sklave zur Verfügung stellt, Artikelliste wird eingelesen (Programm entscheidet Zeitpunkt und Umfang) und Artikel werden einzeln abgearbeitet. Ergebnis wird in MySQL-DB für ~7 Tage zur Ansicht gespeichert. Das Ergebnis muß natürlich noch von Freiwilligen entsprechend ausgewertet werden, der Import würde somit relativ automatisch ablaufen.
Ich habe bei dem jetzigen Urv-Check übrigens eine Zweiklassen-Hierarchie der Benutzer eingeführt. Aus Gründen des Umfangs gibt es "Trusted-Authors" und normale Benutzer. Die Ersteren sind zumeist alte Hasen die vertrauens- würdig sind - deren Artikel werden nur mit einer Wahrscheinlichkeit von < 20% einer Prüfung unterzogen. Der (dreckige ;-) Rest ist immer dran. Bis jetzt schaffe ich mit 1000 Queries so ~400 neue Artikel.
Soll ich Jimbo mal fragen, ob Yahoo uns unterstützen könnte?
Hm, ich weiß nicht wie ''gut'' die Suchergebnisse von Y! sind. IMHO ist Google immer noch das Nonplusultra auf dem Gebiet der Suchmaschinen.
Nils.