Informationszugänge - wie die Wikipedia. Deshalb fällt
es mir auch
schwer, die Übertragung etablierter Wissens-Schaffungs-Strukturen auf
die Wikipedia gutzuheissen oder zu verdammen.
Nur aufgrund der Tatsache, dass es *Neue* Möglichkeiten gibt, sich Wissen zu
verschaffen, heißt das ja nicht, dass die alten nicht was für sich haben:
Eine Enzyklopädie dient ja in der Regel nicht dazu, sich bin ins hinterletzte
Detail in ein Thema einzuarbeiten, sondern wird meist herangezogen, um
Hintergundinformationen zu Gebieten zu bekommen, die nicht das eigentlichen
Thema sind. Also: Wenn ich eine Arbeit über die Geschichte des
Fichtelgebirges schreibe, dann werde ich nicht an die Enzyklopädie gehen, und
erwarten, dass da alles über das Fichtelgebirge drinsteht. Ich weiß aber,
dass die Geschichte stark mit der Porzellanherstellung verbunden ist. Also
schlage ich in der Enzyklopädie mal Porzellan auf, damit ich ungefähr weiß,
wie das gemacht wird, seit wann's das gibt, etc. Dann will ich schnell alles
wichtige über Pozellan gesagt bekommen - eigentlich interessiert es mich ja
nicht wirklich, mich interessiert die Geschichte des Fichtelgebirges. Wenn
ich jetzt bei meinem Randthema Porzellan im Grunde Literaturarbeit machen
muss, ist das nicht das, was ich will.
Wikipedia ist eben mit dem Ziel angetreten, Enzyklopädie zu sein. Wissen, das
nur gesammelt wird, nützt nichts. Jemand muss reinschauen! "Fakten Fakten
Fakten" ist das eine, aber "an die Leser denken" ist das andere.
Als Enzyklopädie sind wir tatsächlich ein "etabliertes" Prinzip des
Wissenspeicherns. Aber ein Prinzip das (siehe Anwednungsfall oben) auch und
gerade in Zeiten vernetzter Texte wichtig bleibt und durch diese prinzipiell
nicht ersetzt werden *kann*. Und wir sind bislang das einzige Prinzip dieses
Wissensspeicherns, das frei ist.
Nochmal, ich sprech mich nicht dagegen aus, andere Struktuen (auch andere
freie Strukturen) zu schaffen - ich stemme mich nur immer dagegen, das im
Rahmen der Wikipedia zu tun. Wenn die eine Eierlegendewollmilchsau werden
soll, geht das schief, weil die Technik auf den Zweck "Enzyklopädie"
ausgelegt ist. Wenn und Programmierer Zusatzmodule für Fimdatenbanken etc.
schreiben - immer her damit. Wenn wir eine zweite Plattform aufmachen, die
zur Schaffung von primären Forschungsergebnissen dient - immer her damit.
Wenn wir ein freies Monstermegakochbuch erfinden - immer her damit. Wenn wir
über all diese Dinge einschließlich der Wikipedia einen einheitlichen Look
setzen und eine Suchmaschine erfinden, die das alles sinnvoll durchsucht -
immer her damit. Aber dann ist die Wikipedia eben nach wie vor die
"Enzyklopädie" in diesem Informationsverbund, und kann diese Aufgabe perfekt
erfüllen, statt nur zu 50%, weil die anderen 50% für andere Zwecke
"missbraucht" wurden. Eine 50% Enzyklopädie ist keine, die verwendet keiner,
weil die Wahrscheinlichkeit, schnell das Wichtige vollständig zu finden, halt
bei 50% und nicht wie in der Britannica bei 99% liegt.
Uli
Die Wikipedia ist ja gerade unter diesem Aspekt ein extrem spannendes
Experiment: Was kommt dabei heraus, wenn man die "Community", und nicht
irgendwelche Gatekeeper selektieren und gewichten läßt (Eriks Hinweis
auf den "Bottom up"-Charakter der Wikipedia)?
Beispiel: Mein Artikel zu Samoyeden (Hunderasse) ist umfangreicher und
tiefer als der Artikel in der Encarta; damit kommt dieser in D'land eher
seltenen Hunderasse eine vielleicht unangemessene Gewichtung zu, wenn
man beispielsweise vergleicht mit dem weitaus verbreiteteren Schäferhund
(z.Zt. kein Artikel oder Redirect) oder Dobermann (Artikel mit Abbildung
existiert, ist aber eher ein Stub). Ein externer Nutzer, der sich über
die Bedeutung dieser Hunderassen informieren will, erhält hier ein
schiefes (biased) Bild, in der Gesamtheit bzw. im Kontext ist das Wissen
der Wikipedia damit strenggenommen nicht NPOV. Was ist dann hier ein
"mündiger" Leser - jemand, der schon eine bestimmte Grundbildung
mitbringt, oder einer, der sich in jedem Falle auch noch aus anderen
Quellen informiert?
Der Artikel zu Samoyeden existiert halt, ganz "Bottom up"-gemäß, weil
sich einer gefunden hat, der den Artikel schreibt; das gilt für hunderte
anderer Artikel ganz entsprechend. Nun muss die Wikipedia irgendwann
entscheiden, ob sie diese Verzerrung akzeptiert (oder sogar wünscht),
oder ob wir Mechanismen entwickeln müssen, um die Gesamtheit abzurunden
(z.B. eine Bewertung der Artikel durch Editoren und Benutzer à la
Kuro5hin etc., was aber bei dem beweglichen Wiki-Inhalten (im Gegensatz
zu statischen Artikeln in einem News-Portal) technisch *sehr* schwer zu
realisieren sein wird).
Ich habe schon im Kontext mit der Pressemitteilung zu 40k darauf
hingewiesen: Wir können uns schon jetzt über das "Big Picture" (wie
wirkt nicht der einzelne Artikel auf "Externe", sondern eine Gruppe von
Artikeln in ihrer Gewichtung, oder die Themenselektion) Gedanken machen,
ich halte aber den Zeitpunkt für eine solche "Qulitätsinitiative II" für
noch nicht gekommen. Momentan müssen wir vor allem Quantität generieren
(womit aber definitiv *nicht* triviale Stubs gemeint sind) und in der
Breite wachsen, und erst später (Größenordnung: 80k bis 100k) in der
Tiefe. Dann, in ein bis zwei Jahren) ist IMHO die Zeit gekommen, sich
über Qualität und Gewichtung bzw. informationelle Entlastungsmechanismen
für den Leser der Wikipedia Gedanken zu machen.
Gruß, -Agon
_______________________________________________
WikiDE-l mailing list
WikiDE-l(a)Wikipedia.org
http://mail.wikipedia.org/mailman/listinfo/wikide-l
--
-----------------------------------
Dipl. Ing. Ulrich Fuchs
Büro für Informations-Architekturen
Ruthstraße 18
45130 Essen
Tel.: +49 (0)172 / 200 59 58
Fax.: +49 (0)1212 / 51 76 84 - 317
mail(a)ulrich-fuchs.de
www.ulrich-fuchs.de
-----------------------------------