Erik Moeller schrieb:
ich denke, Du gehst hier mit einer problematischen
Logik an die
Wikipedia ran, einer "Top Down" Logik: So stelle ich mir eine
Enzylopädie vor, das muss rein, das muss raus.
Nö, ich habe mir aber ein paar Wochen lang regelmässig die
"Löschkandidaten" angesehen ;) Was da so abgeht kann ich nicht so recht
als "Bottom Up" ansehen; abgesehen davon, dass die viele Löschwarnungen
berechtigt sind, wird doch arg viel nach ziemlich festen Regeln
entfernt. Demletzt hieß es beispielsweise: Die Wikipedia ist kein
Episode Guide" (warum eigentlich nicht?).
Wie ich schrieb, ich mag nicht alle dieser Regeln, und Regeln sind ja
auch nie unumstößlich, aber wenn sich ein Projekt ein Regelwerk gibt,
dann sollte man das auch ernst nehmen, also konsistend handhaben.
kommen wir schnell dahin, dass in dem Moment, wo wir
unsere
Artikelzahl nennen, wir sofort korrigieren müssen: Aber nur 30% davon
sind enzyklopädisch.
Wobei wir wieder bei der Frage des Selbstverständnisses sind: Was ist
enzyklopädisch für die Wikipedia? Geht es um eine Universalenzyklopädie
(à la Data Becker Lexikon oder Wissen.de), oder um etwas mehr (à la
Britannica)? Und wo steht eigentlich in Fels gemeißelt, daß die
Wikipedia dort Schluß machen muß, wo die Britannica aufhört?
Auch Fachlexika *haben* enzyklopädischen Anspruch, und in meinem Regal
steht beispielsweise ein Meter Filmlexika, von denen etliche "nur"
seitenweise Filmographien auflisten. Und auch Cinegraph wird nicht
weniger zu einem Lexikon dadurch, dass zu "Lida Baarova" eine Seite
Biographie und zwei Seiten Filmographie stehen (so etwas entspricht bei
dieser Loseblattsammlung unseren Stubs; oder bei einem Vollartikel:
"Curt Bois": drei Seiten Biographie, eine Seite Literatur, 16 Seiten
Filmographie).
Warum IMDB duplizieren, wo sie doch sowieso
jeder schon in den Bookmarks hat? Dafür brauchen wir kein Wiki.
Eigentlich mein Argument: Warum etwas duplizieren, wenn es dasselbe
schon besser woanders gibt ;)
Dennoch fallen mir zumindest zwei Argumente ein: (1) Das Retten der
Daten unter GNU FDL (daß die ihre Listen, die *wir* jahrelang
zusammengetragen haben, jetzt deklarieren als "the data is NOT FREE"
piekt mich ziemlich an) und (2) das Verhindern, dass Stubs à la Truman
Show immer wieder von neuem manuell angelegt und womöglich immer wieder
gelöscht werden, weil Stub. Wir hätten eben einen soliden Grundstock,
der nicht weggelöscht wird, und an dem man ebenso gut ergänzen und
feilen kann wie an einem noch nicht existierenden Artikel -- nur hat man
dann mehr Zeit für die Inhaltsangabe und Beschreibung des Films selbst.
Mich stört halt vor allem das unnötige Duplizieren (z.B. irgend jemand
tippt nochmal dieselben Daten zu einem Film ab, die ich schon mal in die
IMDb eingegeben habe).
Da fällt mir ein, dass die englische Wikipedia doch auch mal so eine
Diskussion hatte; damals ging es, glaube ich, um Massenimporte aus
statistischen Daten zu Städten/Regionen der USA. Der Import hat ja
damals stattgefunden, aber wie ging das dann weiter? Haben die
Daten-Stubs verhindert, daß Artikel zu den Städten/Regionen angelegt
wurden? Oder gab es andere Probleme?
Aber: Ich bin sehr offen dafür, z.B. einen Bot laufen
zu lassen, um
*existierende* Artikel über Filme mit Besetzungslisten zu ergänzen.
Dann können wir davon ausgehen, dass es sich um Artikel handelt, die
auch jemand betreut und die nicht als Rohdaten verkümmern werden.
M.E. machen reine Rohdaten keinen Enzyklopädieartikel. Das gleiche
Prinzip kann man bei Musik-Alben anwenden (der Open Source Konkurrent
von CDDB ist übrigens FreeDB).
Klingt für mich eher schwierig, einen Parser so intelligent zu machen
(Schnitt/Cutter, Musik/Soundtrack/Original-Musik,
Besetzung/Cast/Schauspieler/Darsteller/Besetzungsliste....), daß er
nicht mehr Unsinn anstellt als nutzt, aber ich bin kein Programmierer...
Dieses Prinzip scheint mir dem organischen Wachstum
der Wikipedia
eher angemessen. Vielleicht können wir es über eine API sogar an die
Software koppeln, so dass man beim Schreiben eines Artikels über
einen Film oder ein Musikalbum nur einen Knopf drücken muss, um die
Referenzdaten reinzuladen.
Das klingt recht gut. Könnten wir überhaupt eigene Bots laufen lassen,
oder müsste da wieder Brion ran?
Gruss, -asb