Marco:
Zuerst ein paar Definitionen: A: Anzahl der pro Tag zu prüfenden Artikel B: Anzahl der Benutzer, die die Artikel prüfen P: Anzahl der Prüfungen pro Benutzer und Tag
Dann gibt N=BP/A an, wie oft ein Artikel im Mittel geprüft wird.
Annahme: Kein Benutzer prüft Artikel mehrfach und wählt unabhängig von den anderen Benutzern die Artikel, die er prüft, zufällig aus.
Die Wahrscheinlichkeit w für einen Artikel, von keinem Benutzer geprüft zu werden ist:
w = X^N mit X=(1-P/A)^(A/P)
w = X^N = (1 - P/A )^B
Für P/A << 1
=> w = 1 - P(B/A) + O((B/A)^2)
Diese Näherung funktioniert nicht, weil schon der zweite Summand PB/A=N nicht klein ist, sondern sogar über 1 liegen dürfte. In diesem Fall bekommst du, falls du den Rest vernachlässigst, eine Wahrscheinlichkeit, die kleiner als 0 ist.
P wird i.a. ein Konstante sein, während B und A zeitabhängig sind. Nimmt man an, dass die Anzahl der neuen Artikel A ungefähr proportional zur Anzahl der Benutzer ist, dann ist B/A = const für alle Zeiten t und somit
w = const für alle t
Diese Schlussfolgerung ist falsch, weil eben schon die Näherung falsch war.
Man kann das Modell noch erweitern, indem man nicht nur die Artikel, die gar nicht kontrolliert wurden als Maß benutzt, sondern den Gesamtnutzen der deutschen Wikipedia berechnet.
Ich glaube nicht, dass man die Qualität der Artikel irgendwie sinnvoll anhand messbarer Paramter bestimmen können wird. Man könnte aber evtl. untersuchen, ob irgendwelche messbaren Parameter (z.B. Anzahl der Bearbeitungen, Anzahl der Bearbeiter, Bearbeitungszeiträume etc.) sich bei den "exzellenten" Artikeln deutlich von denen der anderen Artikel unterscheiden, aber ich halte es nicht für so aussichtsreich, dass ich mich damit beschäftigen würde.
El