Hallo
Wie unter anderem Torsten Kleinz in seinem letzten Telepolis-Artikel bemängelte: "Eine qualitative Analyse der Wikipedia-Artikel fehlt bisher". Dem kann abgeholfen werden. Bereits vor einiger Zeit haben Benutzer Asb und Necrophorus einen Versuch unternommen, die deutschsprachige Wikipedia mit Hilfe von Stichproben einer Analyse zu unterziehen. Ich habe die bisherigen Seiten unter
http://de.wikipedia.org/wiki/Wikipedia:Wikipedistik
zusammengefasst und unter [[Wikipedia:Wikipedistik/Methodik]] einiges dazu geschrieben, wie statistisch einwandfreie Stichproben erhoben und ausgewertet werden können. Vielleicht könnten wir ja einen weiteren Anlauf starten? Allerdings müssen vorher die Bewertungskriterien festgelegt werden, damit das Ergebnis nicht verfälscht wird. Vorschlag zur Gruppeneinteilung siehe unter [[Wikipedia:Wikipedistik/Kategorien]].
Bei der Auswertung darf nicht zu viel erwartet werden ("exakt X% gute Artikel über europäische Personen") aber eine grobe Themen- und Qualitätsstreuung mit wissenschaftlich zitierbaren Prozentangaben lässt sich schon machen. Hat jemand Lust, sich daran zu beteiligen?
Gruss, Jakob
Am 12.07.2004 um 12:18 schrieb Jakob Voss:
Wie unter anderem Torsten Kleinz in seinem letzten Telepolis-Artikel bemängelte: "Eine qualitative Analyse der Wikipedia-Artikel fehlt bisher". Dem kann abgeholfen werden.
Gute Idee
Bereits vor einiger Zeit haben Benutzer Asb und Necrophorus einen Versuch unternommen, die deutschsprachige Wikipedia mit Hilfe von Stichproben einer Analyse zu unterziehen.
Leider handelt es sich dabei um eine sehr subjektive "Qualitätsanalyse", die nicht unbedingt herangezogen werden sollte, um objektive Aussagen über die Qualität der Wikipedia zu machen.
Allerdings müssen vorher die Bewertungskriterien festgelegt werden, damit das Ergebnis nicht verfälscht wird. Vorschlag zur Gruppeneinteilung siehe unter [[Wikipedia:Wikipedistik/Kategorien]]
Damit wir Aussagen über die Qualität der Wikipedia-Artikel machen können, müssen wir nicht nur Bewertungskriterien festlegen, sondern ein vollständiges Messinstrument entwickeln, das valide, reliabel und intersubjektiv nachvollziehbar die Qualität bei Wikipedia-Artikeln untersucht. Das heisst: Wir müssen sicherstellen, dass wir mit unserem Messinstrument wirklich die "Qualität" messen, dass jede Person die gemessenen Resultate nachvollziehen kann und dass wir bei mehrmaliger Untersuchung des selben Artikels mit dem selben Messinstrument auch das selbe Resultat erhalten.
Für die Entwicklung der Messinstruments benötigen wir eine operationalisierbare Definition des Qualitätsbegriffs. Auch dies ist keine leichte Aufgabe wie wir aus den NPOV-Diskussionen wissen.
Die Medien- und Kommunikationswissenschaft hat einige Methoden entwickelt, um die Qualität von journalistischen Texten zu messen. Ich denke wir sollten uns dort bedienen...
Hat jemand Lust, sich daran zu beteiligen?
Ich schreibe meine Diplomarbeit in der Publizistikwissenschaft zur Wiki-Kultur und werde diese wahrscheinlich anhand der Wikipedia untersuchen. Die Qualität der Inhalte wird in meiner Arbeit einen grossen Teil ausmachen. ich werde aber erst im Herbst richtig loslegen mit der Diplomarbeit. In der Zwischenzeit helfe ich gern mit bei der Entwicklung eines Messinstruments.
Andreas Brändle
-- Andreas Brändle Hardstrasse 318 8005 Zürich
076 389 92 14 andreas@obacht.ch --
Hallo,
vielleicht war es ein Fehler Qualitative und Inhaltliche Analyse sowie Methodik und Bewertungskriterien zusammenzuwerfen...
Was ich anregen möchte ist einfach die wissenschaftlich einwandfreie Erhebung und Auswertung von Stichproben, um statistische Schätzungen für die gesamte Wikipedia angeben zu können. Für Aussagen wie "X% der Artikel behandeln Personen, Organisationen oder Gruppen" oder "Y% der Artikel werden als gut eingeschätzt" brauchen wir keine übermäßig komplizierten Instrumente und Kriterien.
Martin Haase schrieb
Ich habe mal ins Blaue hinein geschätzt, dass so ungefähr 10000 Artikel wirklich Lexikon-Standard haben, aber leider weiß ich das nicht genau.
Bisher haben wir nur solche Schätzungen ins Blaue hinein oder mit 20 zufälligen Artikeln, was völlig lächerlich ist. Ob ein Artikel wirklich Lexikon-Standard hat, können wir trotzdem selbst beurteilen - dann wissen wir wenigstens, wie viele Artikel wir selbst als Artikel mit Lexikon-Standard einschätzen. Nicht mehr und nicht weniger. Das gleiche gilt für die thematische Streuung. Vieviel Prozent der Artikel beispielsweise Technische Themen behandeln hängt natürlich davon ab, wo man die Grenze zwischen Technik und anderen Themen zieht. Das hindert jedoch nicht daran, Prognosen abzugeben. Eine auf einer offenen Stichprobe basierte Prognose halte ich für besser als eine völlig willkürliche Schätzung oder selbst eine Schätzung von Außen, ohne dass die vollständige Stichprobe und ihre Bewertung veröffentlicht würde.
Andreas Brändle schrieb:
Damit wir Aussagen über die Qualität der Wikipedia-Artikel machen können, müssen wir nicht nur Bewertungskriterien festlegen, sondern ein vollständiges Messinstrument entwickeln, das valide, reliabel und intersubjektiv nachvollziehbar die Qualität bei Wikipedia-Artikeln untersucht. Das heisst: Wir müssen sicherstellen, dass wir mit unserem Messinstrument wirklich die "Qualität" messen, dass jede Person die gemessenen Resultate nachvollziehen kann und dass wir bei mehrmaliger Untersuchung des selben Artikels mit dem selben Messinstrument auch das selbe Resultat erhalten.
Das würde ich begrüßen, obwohl ich glaube, dass eine vollständige Objektivität bei der Bewertung von Qualität nicht möglich ist. Bis jemand ein objektives Messinstrument enwtwickelt, können wir aber auch erstmal objektive Aussagen nach subjektiven Kriterien machen. Der Oma-Test (Meine Oma versteht X% der Artikel) wäre auch ein subjektives Kriterium, aber wenn man mal wirklich eine Oma an 100 Artikel ransetzt, kann trotzdem eine objektive Aussage für die gesamte Wikipedia getroffen werden.
In der Hoffnung nicht noch mehr Verwirrung gestiftet zu haben, Jakob