Hallo,
Stefan Kühn schrieb:
Die Bots sind meist sehr stark auf wenige Aufgaben spezialisiert. Der programmtechnische Aufwand wäre um einiges höher, wenn man alle Aufgaben von einem Mega-Bot abarbeiten lassen würde. Außerdem wäre dann wahrscheinlich die Steuerung von nur einer Person möglich und man müsste ewig betteln, bis eine neue Aufgabe eingebaut ist und abgearbeitet wird. Mir scheint das verteilen auf viele kleine Heinzelmännchen wesentlich besser.
Da geb ich Dir völlig recht. Wollte man einen Metabot schreiben, müsste sehr viel Energie in ein Kommunikationsprotokoll gesteckt werden, mit dem dem Bot jede denkbare Aufgabe übergeben werden könnte. Also eigentlich wieder eine vollständige Sprache. Ich halte den Entwicklungsaufwand für unangemessen hoch im Verhältnis zum Gewinn durch weniger Botläufe.
Und (da kann ich nur für den Sk-Bot reden) wenn ein normaler Nutzer aus Performancegründen keinen Zugriff auf einen Artikel hat, dann muss der Bot genauso warten. Ich wollte gestern Abend noch ein paar Personen per Sk-Bot kategorisieren, aber bei teilweise extrem langen Wartezeiten habe ich dann auch keine Lust mehr drauf gehabt. Wie gesagt, der Bot bekommt nur dieselbe Performance wie alle anderen Nutzer.
Das sehe ich anders. Natürlich bekommt der Bot die gleiche Performance wie alle anderen. Aber ein Bot sollte 1. niedriger Priorisiert sein als "echte" Nutzer, weil die Wikipedia für die Nutzer und nicht für die Bots da ist. Und 2. Braucht ein bot mehr Ressourcen als ein normaler Nutzer, weil ändern langsamer ist als lesen. Deshalb fände ich die Einführung eines "Botflags", das an die Requests gehängt wird sinnvoll. Auf diese Weise könnte die Wikipedia selbst entscheiden, ob sie Botzugriffe erlaubt, verzögert oder ablehnt. Dann müsste das nicht in jeden Bot implementiert werden.(Der Bot sollte aber die Antworten verstehen)
Oliver Hankeln
P.S. Ich hege die starke Befürchtung, den Thread zu zerstören, weil ich den Digest bekomme und deshalb nicht sinnvoll antworten kann...