Scheweks Idee zur Versionskennzeichnung finde ich prinzipiell ganz gut, schaden kann eine solche Funktion jedenfalls nicht. Eine andere Sache ist, diese Funktion in die Software zu bringen. Da wird man erstmal die Benutzer anderer Sprachversionen und dann die Entwickler überzeugen müssen.
Allerdings kann ich mir nicht vorstellen, dass nun plötzlich, nur weil die Leser die Möglichkeit bekommen, geprüfte Versionen zu sehen, die Mitarbeiter viel stärker motiviert sind, solche Reviews durchzuführen. Momentan wird täglich etwa ein neuer "exzellenter" Artikel produziert. Wieviele Artikel täglich erfolgreich einen Reviewprozess durchlaufen (ohne danach "exzellent" zu sein), überblicke ich nicht ganz. Das scheinen aber auch höchstens 5-10 zu sein. Da muss man sich doch fragen, wann "Version 1.0" fertig sein wird.
Ein sehr ambitioniertes Ziel wäre, diese Version in einem Jahr fertig zu haben. Beim gegenwärtigen Wachstum gibt es bis dahin wahrscheinlich etwa 350.000 Artikel. Das bedeutet, jeden Tag müssten etwa 1.000 Artikel geprüft werden, also 100 bis 1.000 mal so viele wie heute.
Mindestens müssten aber täglich so viele Artikel geprüft werden wie neue hinzu kommen, also z.Z. etwa 400, wenn man irgendwann mal alle geprüft haben will.
Wikipedia hat außerdem den Anspruch, aktueller zu sein als herkömmliche gedruckte oder auf CD/DVD gepresste Enzyklopädien. Wie ist es vereinbar, gleichzeitig aktuelle und geprüfte Informationen anzubieten? Wenn man den herkömmlichen Enzyklopädien nicht hinterher laufen will, muss man wohl jeden Artikel mindestens einmal im Jahr prüfen. Eine begrenzte Zahl von notwendigen Reviews pro Tag erhält man dann natürlich nur, wenn man die Menge der regelmäßig zu prüfenden Artikel einschränkt. Wenn man also 100.000 oder 200.000 "Kernartikel" definiert, kann man mit 274 bzw. 546 täglich zu prüfenden Artikeln rechnen.
Wie auch immer man rechnet, es wären viel mehr Reviews nötig als die Leute (sehr wahrscheinlich) bereit sind durchzuführen. Das ist an sich auch kein Wunder, denn es ist ja viel leichter, einen Artikel anzulegen und etwas daran herumzufrickeln, als den Artikel eingehend zu prüfen und aufzupolieren, was ja bedeutet, dass mehrere Leute, die auch zumindest eine gewisse Grundahnung vom Thema haben, alle Fakten prüfen, Fehlendes ergänzen, die Lesbarkeit erhöhen, das Artikelumfeld überprüfen und ggf. Einheitlichkeit herstellen, usw., und dabei auch noch ständig miteinander diskutieren und schlimmstenfalls auch noch entgegengesetzte Meinungen unter einen Hut bringen müssen.
Ich glaube deshalb nicht, dass sich mit den Reviews, so wie sie heute durchgeführt werden (und Scheweks Vorschlag weicht davon kaum ab), an der gegenwärtigen Situation viel ändern wird, und die sieht aus der Leserperspektive so aus: Wenn der Leser Erklärungen zu einem Begriff sucht, wird er mit einer Wahrscheinlichkeit von 1 bis 2 Promille auf einen Artikel stoßen, der ziemlich gut und verlässlich ist und als "exzellent" gekennzeichnet ist. Die anderen Artikel sind mal sehr gut und mal sehr schlecht, und der Leser muss selbst einschätzen, womit er es zu tun hat. Diese Situation verbessert sich auch dann nicht grundlegend, wenn 1 bis 2 Prozent oder sogar 10 bis 20 Prozent der Artikel gut und verlässlich und als solche markiert wären. Viel wichtiger als die Ausweitung der besten Artikel ist meiner Meinung nach zum jetzigen Zeitpunkt die Verbesserung der Masse der mäßigen und schlechten Artikel, so dass jeder Artikel in einer geprüften Version zumindest einen Mindeststandard erreicht.
Damit die Benutzer von einer solchen Basisprüfung möglichst häufig Gebrauch machen, muss sie ebenso einfach wie das Ändern der Artikel sein und möglichst vielen Leuten zur Verfügung stehen. Ich habe auch einen konkreten Vorschlag, der evtl. parallel zu Scheweks Versionskennzeichnung laufen könnte:
* Jeder angemeldete Benutzer kann einzelne Versionen bewerten, nach verschiedenen Kriterien: vandalisiert oder nicht, Fakten, Vollständigkeit, Neutralität, Einbettung in das Artikelumfeld; außerdem vielleicht noch eine Selbsteinschätzung des Verhältnisses des Prüfers zum Thema: mehrere Stufen von "keine Ahnung" bis "Experte".
* Jede Bewertung wird zusammen mit dem Benutzernamen einzeln gespeichert.
* Ein Leser kann bestimmen, dass er nur die letzte Version angezeigt bekommt, die einem gewissen Mindeststandard genügt. Z.B. könnte er verlangen, dass mindestens zwei Benutzer (oder auch nur ein Benutzer) meinen, dass die Fakten etc. stimmen.
* Welche Benutzer als Prüfer akzepiert werden, kann der Leser selbst bestimmen. Dafür könnte man das bereits existierende "Vertrauensnetz" verwenden. Aus den Informationen, wer wem vertraut bzw. misstraut, kann man auch für nicht angemeldete Benutzer oder solche, die keine Lust haben, alle möglichen Leute zu bewerten, eine recht verlässliche globale Liste von Benutzern bestimmen, die zumindest gutwillig und nicht allzu inkompetent sind.
Mir ist bewusst, dass mein Vorschlag mindestens ebenso weit von einer Realisierung entfernt ist wie der von Schewek.
Mein Vorschlag geht offenbar in eine ganz andere Richtung als Ulrichs Vorstellungen, was aber nicht bedeutet, dass man ein solches Konkurrenzprojekt nicht auch mal probieren sollte. Die Wikipedia, in der jeder planlos herumwerkeln kann, benötigt vermutlich ganz andere Mechanismen um zum Ziel zu kommen als ein Projekt, bei dem jeder einzelne das Ziel im Auge hat, bevor er mit der Arbeit beginnt.
El, ...
elwp@gmx.de schrieb:
Da muss man sich doch fragen, wann "Version 1.0" fertig sein wird.
Ein sehr ambitioniertes Ziel wäre, diese Version in einem Jahr fertig zu haben.
"Ambitioniert"? Warum sollten wir uns Ziele setzen, die wir unmöglich schaffen können?
Beim gegenwärtigen Wachstum gibt es bis dahin wahrscheinlich etwa 350.000 Artikel. Das bedeutet, jeden Tag müssten etwa 1.000 Artikel geprüft werden, also 100 bis 1.000 mal so viele wie heute.
Warum muss von jedem Artikel irgendwann eine geprüfte Version vorliegen?
Als die englische Wikipedia gestartet wurde wurde das Ziel ausgerufen, 100.000 Artikel zu erstellen. Ich vermute diese Zahl wurde gewählt, weil sie in der Größenordnung vieler klassischer Enzyklopädien liegt. Zum 10. Geburtstag des Projektes 100.000 _geprüfte_ Artikel vorweisen zu können, würde ich ein sehr ambitioniertes Ziel nennen - aber kein unrealistisches.
An dieser Stelle würden mich ein paar Zahlen interessieren: * Wieviel Prozent aller Artikelaufrufe entfallen auf die 1000, 10.000, 100.000 meistaufgerufenen Artikel? * Oder andersherum: Wieviele der meistaufgerufenen Artikel müssten wir prüfen, um damit 50%, 60%, 70%, 80% oder 90% unserer Besucher glücklich zu machen?
Mindestens müssten aber täglich so viele Artikel geprüft werden wie neue hinzu kommen, also z.Z. etwa 400, wenn man irgendwann mal alle geprüft haben will.
Wenn, ja, wenn. Ich denke dies wäre ein schönes Ziel für den 50. Geburtstag. Das exponentielle Wachstum kann ganz plötzlich wieder einsetzen, und niemand weiß, wann es endlich wieder aufhört ;-)
Wikipedia hat außerdem den Anspruch, aktueller zu sein als herkömmliche gedruckte oder auf CD/DVD gepresste Enzyklopädien. Wie ist es vereinbar, gleichzeitig aktuelle und geprüfte Informationen anzubieten? Wenn man den herkömmlichen Enzyklopädien nicht hinterher laufen will, muss man wohl jeden Artikel mindestens einmal im Jahr prüfen.
Wenn wir unseren Nutzern einen Gefallen tun wollen, zeigen wir bei jedem Artikel deutlich an, wann er zum letzten mal geprüft wurde. Wenn wir mehr leisten können, prima, wenn wir dazu keine Kapazitäten haben, dann haben wir sie nicht. Zum Glück dürften spätere Prüfungen eines Artikels deutlich weniger aufwändig sein - ich hoffe nur, dass wir bis dahin eine intelligentere Diff-Funktion haben.
Wie auch immer man rechnet, es wären viel mehr Reviews nötig als die Leute (sehr wahrscheinlich) bereit sind durchzuführen.
Was bedeutet "wie auch immer"?
Wenn der Leser Erklärungen zu einem Begriff sucht, wird er mit einer Wahrscheinlichkeit von 1 bis 2 Promille auf einen Artikel stoßen, der ziemlich gut und verlässlich ist und als "exzellent" gekennzeichnet ist. Die anderen Artikel sind mal sehr gut und mal sehr schlecht, und der Leser muss selbst einschätzen, womit er es zu tun hat. Diese Situation verbessert sich auch dann nicht grundlegend, wenn 1 bis 2 Prozent oder sogar 10 bis 20 Prozent der Artikel gut und verlässlich und als solche markiert wären.
Dazu würde ich gerne mal Statistiken sehen (s.o.).
Damit die Benutzer von einer solchen Basisprüfung möglichst häufig Gebrauch machen, muss sie ebenso einfach wie das Ändern der Artikel sein und möglichst vielen Leuten zur Verfügung stehen. Ich habe auch einen konkreten Vorschlag, der evtl. parallel zu Scheweks Versionskennzeichnung laufen könnte: [...]
Dein Vorschlag ist interessant, und wenn ich es richtig verstanden habe eine Weiterentwicklung der von Magnus implementierten Bewertungsfunktion. Allerdings bin ich sehr skeptisch was ihren praktischen Nutzen betrifft: Lars Aronsson hatte eine (allerdings einfacher gestrickte) Bewertungsfunktion auf susning.nu implementiert, er schaltete diese jedoch wieder ab, nachdem offensichtlich wurde, dass ein Großteil der Benutzer nicht die Qualität bewertete, sondern der eigenen Meinung zum Artikelgegenstand Ausdruck verlieh. (Lars, bitte korrigiere mich, wenn ich das falsch wiedergebe.) Diesem Problem wird man durch Veränderungen an der Bewertungsfunktion sicher verringern können, wie stark lässt sich im Vorraus aber kaum abschätzen. Auch wie fundiert die Selbsteinschätzung als Experte oder Laie ist, bleibt für den normalen Leser völlig intransparent. Und Verknüpfung der Artikelbewertung mit einem Vertrauensnetz brächte sehr viele Probleme mit sich, ich denke da sollten wir ggf. separat drüber diskutieren.
Mir ist der Ansatz ansich nicht unsympathisch; Aber ich befürchte, dass wir mit so einer Funktion unseren Lesern zwar Artikelversionen anbieten können, deren Qualität gesicherter ist, als die jeweils aktuellste Version - aber nur im statistischen Mittel. Wie verlässlich die Bewertung bei jedem einzelnen Artikel ganz konkret ist, wird für den Leser nicht einschätzbar sein.
Kurt
Kurt:
elwp@gmx.de schrieb:
Da muss man sich doch fragen, wann "Version 1.0" fertig sein wird.
Ein sehr ambitioniertes Ziel wäre, diese Version in einem Jahr fertig zu haben.
"Ambitioniert"? Warum sollten wir uns Ziele setzen, die wir unmöglich schaffen können? [...] Zum 10. Geburtstag des Projektes 100.000 _geprüfte_ Artikel vorweisen zu können, würde ich ein sehr ambitioniertes Ziel nennen - aber kein unrealistisches.
Die englische Wikipedia war vor gut einem Jahr etwa so groß wie die deutsche heute. Damals schrieb Jimbo über Wikipedia 1.0 und wann sie erscheinen könnte:
http://mail.wikipedia.org/pipermail/wikipedia-l/2003-August/029065.html
Er nannte 1, 2 oder 5 Jahre, und solche Vorstellungen dürften in vielen Köpfen herumschwirren. Ich wollte mit meinen Rechnungen nur zeigen, wie unrealistisch sie sind, wenn man den normalen Reviewprozess verwendet.
An dieser Stelle würden mich ein paar Zahlen interessieren:
- Wieviel Prozent aller Artikelaufrufe entfallen auf die 1000, 10.000,
100.000 meistaufgerufenen Artikel?
Das hängt davon ab, wieviele Artikel es insgesamt gibt. Aus den Webalizer-Statistiken dieses Jahres habe ich folgende Werte extrahiert (Näheres zur Berechnung am Ende dieser Mail):
1.000: Feb: 22.6%, Apr: 18.8%, Jun: 17.6%, Aug: 15.5%, Okt: 16.5% 10.000: Feb: 66.2%, Apr: 56.2%, Jun: 53.9%, Aug: 47.9%, Okt: 47.6% 100.000: Feb:100.0%, Apr: 99.6%, Jun: 98.2%, Aug: 95.0%, Okt: 92.0%
Der Wert für die 100.000 meistaufgerufenen Artikel wird sicherlich noch weiter sinken, ich schätze auf ca. 80%.
- Oder andersherum: Wieviele der meistaufgerufenen Artikel müssten wir
prüfen, um damit 50%, 60%, 70%, 80% oder 90% unserer Besucher glücklich zu machen?
Das ist schon schwieriger zu beantworten. Die meisten Benutzer dürften sich ja wohl mehr als nur einen Artikel ansehen und erst dann zufrieden sein, wenn die überwiegende Mehrzahl der Artikel, die sie lesen, gut und geprüft ist. Dazu müssten dann tatsächlich etwa die 100.000 meistgelesenen Artikel geprüft werden, denn erst dann wäre nur jeder 5. gelesene Artikel ungeprüft (falls der o.g. Wert auf 80% fällt), was wohl noch einigermaßen erträglich wäre.
Und damit es "nur" 100.000 zu prüfende Artikel sind, müssten auch genau die 100.000 meistgelesenen Artikel geprüft werden. Tatsächlich werden aber wohl nur die Artikel geprüft werden, auf die gerade ein paar Prüfer Lust haben.
Mindestens müssten aber täglich so viele Artikel geprüft werden wie neue hinzu kommen, also z.Z. etwa 400, wenn man irgendwann mal alle geprüft haben will.
Wenn, ja, wenn. Ich denke dies wäre ein schönes Ziel für den 50. Geburtstag. Das exponentielle Wachstum kann ganz plötzlich wieder einsetzen, und niemand weiß, wann es endlich wieder aufhört ;-)
Exponentielles Wachstum der Mitarbeit kann es nur geben, wenn die Anzahl der Internetnutzer, die neu von der Wikipedia erfahren und sich dafür begeistern können, exponentiell zunimmt. Das ist ja wohl bei der inzwischen erreichten Bekanntheit der Wikipedia auszuschließen.
Außerdem ist es für mein Argument völlig egal, ob das Wachstum linear oder exponentiell oder was auch immer ist, solange es nur gleich ist für die Anzahl der neuen Artikel und die Bereitschaft, Artikel zu prüfen, wovon ich ausgehe.
Wie auch immer man rechnet, es wären viel mehr Reviews nötig als die Leute (sehr wahrscheinlich) bereit sind durchzuführen.
Was bedeutet "wie auch immer"?
Ich meine natürlich unter der Voraussetzung, dass genügend Artikel häufig genug geprüft werden.
Damit die Benutzer von einer solchen Basisprüfung möglichst häufig Gebrauch machen, muss sie ebenso einfach wie das Ändern der Artikel sein und möglichst vielen Leuten zur Verfügung stehen. Ich habe auch einen konkreten Vorschlag, der evtl. parallel zu Scheweks Versionskennzeichnung laufen könnte: [...]
Dein Vorschlag ist interessant, und wenn ich es richtig verstanden habe eine Weiterentwicklung der von Magnus implementierten Bewertungsfunktion.
Ja.
Allerdings bin ich sehr skeptisch was ihren praktischen Nutzen betrifft: Lars Aronsson hatte eine (allerdings einfacher gestrickte) Bewertungsfunktion auf susning.nu implementiert, er schaltete diese jedoch wieder ab, nachdem offensichtlich wurde, dass ein Großteil der Benutzer nicht die Qualität bewertete, sondern der eigenen Meinung zum Artikelgegenstand Ausdruck verlieh. (Lars, bitte korrigiere mich, wenn ich das falsch wiedergebe.) Diesem Problem wird man durch Veränderungen an der Bewertungsfunktion sicher verringern können, wie stark lässt sich im Vorraus aber kaum abschätzen.
Ich kann mir ja gerade noch vorstellen, dass ein paar Besoffene bei einer nicht weiter differenzierten Bewertung eines Artikels z.B. über Hitler eine negative Bewertung abgeben, auch wenn der Artikel gut ist, aber wenn man wirklich konkret nach Fakten, Vollständigkeit etc. fragt, halte ich eine solche Verwechselung für nahezu ausgeschlossen.
Es könnte allerdings sein, dass einige Benutzer bei Themen, die sie intellektuell überfordern, negative Wertungen abgeben, auch wenn der Artikel auf einem angemessenen Niveau geschrieben ist. Das dürfte v.a. schwierige naturwissenschaftliche Themen betreffen. Solche Benutzer muss man dann eben aus der Vertrauensliste entfernen.
Auch wie fundiert die Selbsteinschätzung als Experte oder Laie ist, bleibt für den normalen Leser völlig intransparent.
Diese Selbsteinschätzung ist keine zentrale Information bei der Bewertung. Ich dachte nur, einige Leute könnten sie evtl. nützlich finden.
Und Verknüpfung der Artikelbewertung mit einem Vertrauensnetz brächte sehr viele Probleme mit sich, ich denke da sollten wir ggf. separat drüber diskutieren.
Angeblich soll man in Mediawiki 1.5 Benutzergruppen definieren können, und vielleicht lässt sich die Idee dann einfacher umsetzen. Also am besten erst mal warten und dann weiterdiskutieren.
Mir ist der Ansatz ansich nicht unsympathisch; Aber ich befürchte, dass wir mit so einer Funktion unseren Lesern zwar Artikelversionen anbieten können, deren Qualität gesicherter ist, als die jeweils aktuellste Version
- aber nur im statistischen Mittel.
Das wäre schon ein großer Fortschritt. Leider ist das beim Review (egal ob ein großer oder kleiner) nicht gesichert, denn im Mittel nimmt die Artikelqualität auch ohne Review zu, sofern man zumindest offensichtlichen Vandalismus in Grenzen halten kann, z.B. durch die neue Recent-Changes-Patrol-Funktion. Deshalb können besonders dann, wenn zu selten geprüft wird, die geprüften Versionen im Schnitt auch schlechter als die aktuellen sein.
Wie verlässlich die Bewertung bei jedem einzelnen Artikel ganz konkret ist, wird für den Leser nicht einschätzbar sein.
Den Benutzern sollte klar sein, was es bedeutet, wenn sie als Qualitätsmerkmal wählen, dass eine bestimmte Anzahl von vertrauenswürdigen Benutzeren den Artikel abgesegnet haben. Und wenn das zu kompliziert ist, muss man es eben irgendwie genau erklären.
El
-----------------------------
Zur Berechnung des Anteils der meistaufgerufenen Artikel:
Die Webalizer-Statistiken gibt es hier: http://wikimedia.org/stats/de.wikipedia.org/ Man kann auf die einzelnen Monate klicken und dann auf "View All URLs", um die Zugriffslisten herunterzuladen.
Als Artikel habe ich URLs gezählt, die mit /wiki/ beginnen und die weder einen Doppelpunkt noch die Wörter "Liste" oder "Portal" im Namen haben. Außerdem habe ich noch einige häufig aufgerufene Seiten ausgeschlossen, die offensichtlich keine Artikel sind, wie z.B. die Hauptseite. Aufrufe von Redirects habe ich so behandelt, als wäre die Seite, auf die umgeleitet wird, aufgerufen worden.
Hier der Quellcode für die, die es ganz genau wissen wollen:
#!/usr/bin/perl
open REDIR, "redir"; # vorher aus cur_table.sql.bz2 erstellt while(<REDIR>) { ($von, $nach) = split; $redir{$von} = $nach; } close REDIR;
for($monat=2; $monat<=10; $monat+=2) { %n=(); @N=(); $N=0; $nSuch=0; open URL, sprintf("url_2004%02i.html", $monat); while(<URL>) { ($n, $x, $x, $x, $url) = split; next unless $url =~ /^/wiki/(.*)$/; $artikel = $1; next if $artikel =~ /:/ || $artikel eq "Hauptseite" || $artikel eq "Aktuelle_Ereignisse" || $artikel =~ /Portal/ || $artikel =~ /^Liste/ || $artikel =~ /^Index/ || $artikel eq "_vti_bin/owssvr.dll" || $artikel eq "MSOffice/cltreq.asp" || $artikel eq "w/wiki.phtml"; $n{defined $redir{$artikel}?$redir{$artikel}:$artikel} += $n; } close URL;
foreach $artikel (sort {$n{$b} <=> $n{$a}} keys %n) { $N += $n{$artikel}; $N[$nSuch++] = $N; }
print "Monat: $monat; $N Artikelabfragen, " . "davon $nSuch unterschiedliche\n"; for($i=1000; $i<$nSuch; $i*=10) { printf "%4.3f %i\n", $N[$i]/$N, $i; } }