Erik Moeller schrieb:
ich denke, Du gehst hier mit einer problematischen Logik an die Wikipedia ran, einer "Top Down" Logik: So stelle ich mir eine Enzylopädie vor, das muss rein, das muss raus.
Nö, ich habe mir aber ein paar Wochen lang regelmässig die "Löschkandidaten" angesehen ;) Was da so abgeht kann ich nicht so recht als "Bottom Up" ansehen; abgesehen davon, dass die viele Löschwarnungen berechtigt sind, wird doch arg viel nach ziemlich festen Regeln entfernt. Demletzt hieß es beispielsweise: Die Wikipedia ist kein Episode Guide" (warum eigentlich nicht?).
Wie ich schrieb, ich mag nicht alle dieser Regeln, und Regeln sind ja auch nie unumstößlich, aber wenn sich ein Projekt ein Regelwerk gibt, dann sollte man das auch ernst nehmen, also konsistend handhaben.
kommen wir schnell dahin, dass in dem Moment, wo wir unsere Artikelzahl nennen, wir sofort korrigieren müssen: Aber nur 30% davon sind enzyklopädisch.
Wobei wir wieder bei der Frage des Selbstverständnisses sind: Was ist enzyklopädisch für die Wikipedia? Geht es um eine Universalenzyklopädie (à la Data Becker Lexikon oder Wissen.de), oder um etwas mehr (à la Britannica)? Und wo steht eigentlich in Fels gemeißelt, daß die Wikipedia dort Schluß machen muß, wo die Britannica aufhört?
Auch Fachlexika *haben* enzyklopädischen Anspruch, und in meinem Regal steht beispielsweise ein Meter Filmlexika, von denen etliche "nur" seitenweise Filmographien auflisten. Und auch Cinegraph wird nicht weniger zu einem Lexikon dadurch, dass zu "Lida Baarova" eine Seite Biographie und zwei Seiten Filmographie stehen (so etwas entspricht bei dieser Loseblattsammlung unseren Stubs; oder bei einem Vollartikel: "Curt Bois": drei Seiten Biographie, eine Seite Literatur, 16 Seiten Filmographie).
Warum IMDB duplizieren, wo sie doch sowieso jeder schon in den Bookmarks hat? Dafür brauchen wir kein Wiki.
Eigentlich mein Argument: Warum etwas duplizieren, wenn es dasselbe schon besser woanders gibt ;)
Dennoch fallen mir zumindest zwei Argumente ein: (1) Das Retten der Daten unter GNU FDL (daß die ihre Listen, die *wir* jahrelang zusammengetragen haben, jetzt deklarieren als "the data is NOT FREE" piekt mich ziemlich an) und (2) das Verhindern, dass Stubs à la Truman Show immer wieder von neuem manuell angelegt und womöglich immer wieder gelöscht werden, weil Stub. Wir hätten eben einen soliden Grundstock, der nicht weggelöscht wird, und an dem man ebenso gut ergänzen und feilen kann wie an einem noch nicht existierenden Artikel -- nur hat man dann mehr Zeit für die Inhaltsangabe und Beschreibung des Films selbst. Mich stört halt vor allem das unnötige Duplizieren (z.B. irgend jemand tippt nochmal dieselben Daten zu einem Film ab, die ich schon mal in die IMDb eingegeben habe).
Da fällt mir ein, dass die englische Wikipedia doch auch mal so eine Diskussion hatte; damals ging es, glaube ich, um Massenimporte aus statistischen Daten zu Städten/Regionen der USA. Der Import hat ja damals stattgefunden, aber wie ging das dann weiter? Haben die Daten-Stubs verhindert, daß Artikel zu den Städten/Regionen angelegt wurden? Oder gab es andere Probleme?
Aber: Ich bin sehr offen dafür, z.B. einen Bot laufen zu lassen, um *existierende* Artikel über Filme mit Besetzungslisten zu ergänzen. Dann können wir davon ausgehen, dass es sich um Artikel handelt, die auch jemand betreut und die nicht als Rohdaten verkümmern werden. M.E. machen reine Rohdaten keinen Enzyklopädieartikel. Das gleiche Prinzip kann man bei Musik-Alben anwenden (der Open Source Konkurrent von CDDB ist übrigens FreeDB).
Klingt für mich eher schwierig, einen Parser so intelligent zu machen (Schnitt/Cutter, Musik/Soundtrack/Original-Musik, Besetzung/Cast/Schauspieler/Darsteller/Besetzungsliste....), daß er nicht mehr Unsinn anstellt als nutzt, aber ich bin kein Programmierer...
Dieses Prinzip scheint mir dem organischen Wachstum der Wikipedia eher angemessen. Vielleicht können wir es über eine API sogar an die Software koppeln, so dass man beim Schreiben eines Artikels über einen Film oder ein Musikalbum nur einen Knopf drücken muss, um die Referenzdaten reinzuladen.
Das klingt recht gut. Könnten wir überhaupt eigene Bots laufen lassen, oder müsste da wieder Brion ran?
Gruss, -asb