Oliver Hankeln schrieb:
Das sehe ich anders. Natürlich bekommt der Bot die gleiche Performance wie alle anderen. Aber ein Bot sollte 1. niedriger Priorisiert sein als "echte" Nutzer, weil die Wikipedia für die Nutzer und nicht für die Bots da ist. Und 2. Braucht ein bot mehr Ressourcen als ein normaler Nutzer, weil ändern langsamer ist als lesen. Deshalb fände ich die Einführung eines "Botflags", das an die Requests gehängt wird sinnvoll. Auf diese Weise könnte die Wikipedia selbst entscheiden, ob sie Botzugriffe erlaubt, verzögert oder ablehnt. Dann müsste das nicht in jeden Bot implementiert werden.(Der Bot sollte aber die Antworten verstehen)
Das wäre auch jetzt schon möglich, da die Bot ja als Benutzer der Wikipedia bekannt sind. Ihre Änderungen werden z.B. deshalb ja nicht mehr in der Liste der letzten Änderungen aufgenommen.
Ist das nötig? Nehmen wir mal an 5 Bots arbeiten gleichzeitig an der Wikipedia. Jeder von ihnen arbeitet vielleicht fünfmal so schnell wie ein menschlicher User. Heiß also sie simulieren 25 Nutzer.
Meine Frage ist dann: Würden 25 Nutzer weniger irgendeinen Effekt hinsichtlich der Performance der Wikipedia an einem solchen Tag mit schlechter Erreichbarkeit bringen?
Zum Vergleich: Im Oktober waren täglich 126.000 User bei der deutschen Wikipedia, bei einer angenommenen Gleichverteilung sind das 5250 User pro Stunde (Tag-Nacht-Rhythmus außen vor gelassen). Ich bin der Meinung, dass da die paar Änderungen nicht so stark ins Gewicht fallen.
Stefan