Informationszugänge - wie die Wikipedia. Deshalb fällt es mir auch schwer, die Übertragung etablierter Wissens-Schaffungs-Strukturen auf die Wikipedia gutzuheissen oder zu verdammen.
Nur aufgrund der Tatsache, dass es *Neue* Möglichkeiten gibt, sich Wissen zu verschaffen, heißt das ja nicht, dass die alten nicht was für sich haben: Eine Enzyklopädie dient ja in der Regel nicht dazu, sich bin ins hinterletzte Detail in ein Thema einzuarbeiten, sondern wird meist herangezogen, um Hintergundinformationen zu Gebieten zu bekommen, die nicht das eigentlichen Thema sind. Also: Wenn ich eine Arbeit über die Geschichte des Fichtelgebirges schreibe, dann werde ich nicht an die Enzyklopädie gehen, und erwarten, dass da alles über das Fichtelgebirge drinsteht. Ich weiß aber, dass die Geschichte stark mit der Porzellanherstellung verbunden ist. Also schlage ich in der Enzyklopädie mal Porzellan auf, damit ich ungefähr weiß, wie das gemacht wird, seit wann's das gibt, etc. Dann will ich schnell alles wichtige über Pozellan gesagt bekommen - eigentlich interessiert es mich ja nicht wirklich, mich interessiert die Geschichte des Fichtelgebirges. Wenn ich jetzt bei meinem Randthema Porzellan im Grunde Literaturarbeit machen muss, ist das nicht das, was ich will.
Wikipedia ist eben mit dem Ziel angetreten, Enzyklopädie zu sein. Wissen, das nur gesammelt wird, nützt nichts. Jemand muss reinschauen! "Fakten Fakten Fakten" ist das eine, aber "an die Leser denken" ist das andere.
Als Enzyklopädie sind wir tatsächlich ein "etabliertes" Prinzip des Wissenspeicherns. Aber ein Prinzip das (siehe Anwednungsfall oben) auch und gerade in Zeiten vernetzter Texte wichtig bleibt und durch diese prinzipiell nicht ersetzt werden *kann*. Und wir sind bislang das einzige Prinzip dieses Wissensspeicherns, das frei ist.
Nochmal, ich sprech mich nicht dagegen aus, andere Struktuen (auch andere freie Strukturen) zu schaffen - ich stemme mich nur immer dagegen, das im Rahmen der Wikipedia zu tun. Wenn die eine Eierlegendewollmilchsau werden soll, geht das schief, weil die Technik auf den Zweck "Enzyklopädie" ausgelegt ist. Wenn und Programmierer Zusatzmodule für Fimdatenbanken etc. schreiben - immer her damit. Wenn wir eine zweite Plattform aufmachen, die zur Schaffung von primären Forschungsergebnissen dient - immer her damit. Wenn wir ein freies Monstermegakochbuch erfinden - immer her damit. Wenn wir über all diese Dinge einschließlich der Wikipedia einen einheitlichen Look setzen und eine Suchmaschine erfinden, die das alles sinnvoll durchsucht - immer her damit. Aber dann ist die Wikipedia eben nach wie vor die "Enzyklopädie" in diesem Informationsverbund, und kann diese Aufgabe perfekt erfüllen, statt nur zu 50%, weil die anderen 50% für andere Zwecke "missbraucht" wurden. Eine 50% Enzyklopädie ist keine, die verwendet keiner, weil die Wahrscheinlichkeit, schnell das Wichtige vollständig zu finden, halt bei 50% und nicht wie in der Britannica bei 99% liegt.
Uli
Die Wikipedia ist ja gerade unter diesem Aspekt ein extrem spannendes Experiment: Was kommt dabei heraus, wenn man die "Community", und nicht irgendwelche Gatekeeper selektieren und gewichten läßt (Eriks Hinweis auf den "Bottom up"-Charakter der Wikipedia)?
Beispiel: Mein Artikel zu Samoyeden (Hunderasse) ist umfangreicher und tiefer als der Artikel in der Encarta; damit kommt dieser in D'land eher seltenen Hunderasse eine vielleicht unangemessene Gewichtung zu, wenn man beispielsweise vergleicht mit dem weitaus verbreiteteren Schäferhund (z.Zt. kein Artikel oder Redirect) oder Dobermann (Artikel mit Abbildung existiert, ist aber eher ein Stub). Ein externer Nutzer, der sich über die Bedeutung dieser Hunderassen informieren will, erhält hier ein schiefes (biased) Bild, in der Gesamtheit bzw. im Kontext ist das Wissen der Wikipedia damit strenggenommen nicht NPOV. Was ist dann hier ein "mündiger" Leser - jemand, der schon eine bestimmte Grundbildung mitbringt, oder einer, der sich in jedem Falle auch noch aus anderen Quellen informiert?
Der Artikel zu Samoyeden existiert halt, ganz "Bottom up"-gemäß, weil sich einer gefunden hat, der den Artikel schreibt; das gilt für hunderte anderer Artikel ganz entsprechend. Nun muss die Wikipedia irgendwann entscheiden, ob sie diese Verzerrung akzeptiert (oder sogar wünscht), oder ob wir Mechanismen entwickeln müssen, um die Gesamtheit abzurunden (z.B. eine Bewertung der Artikel durch Editoren und Benutzer à la Kuro5hin etc., was aber bei dem beweglichen Wiki-Inhalten (im Gegensatz zu statischen Artikeln in einem News-Portal) technisch *sehr* schwer zu realisieren sein wird).
Ich habe schon im Kontext mit der Pressemitteilung zu 40k darauf hingewiesen: Wir können uns schon jetzt über das "Big Picture" (wie wirkt nicht der einzelne Artikel auf "Externe", sondern eine Gruppe von Artikeln in ihrer Gewichtung, oder die Themenselektion) Gedanken machen, ich halte aber den Zeitpunkt für eine solche "Qulitätsinitiative II" für noch nicht gekommen. Momentan müssen wir vor allem Quantität generieren (womit aber definitiv *nicht* triviale Stubs gemeint sind) und in der Breite wachsen, und erst später (Größenordnung: 80k bis 100k) in der Tiefe. Dann, in ein bis zwei Jahren) ist IMHO die Zeit gekommen, sich über Qualität und Gewichtung bzw. informationelle Entlastungsmechanismen für den Leser der Wikipedia Gedanken zu machen.
Gruß, -Agon
WikiDE-l mailing list WikiDE-l@Wikipedia.org http://mail.wikipedia.org/mailman/listinfo/wikide-l