Agon-
Nö, ich habe mir aber ein paar Wochen lang regelmässig
die
"Löschkandidaten" angesehen ;) Was da so abgeht kann ich nicht so recht
als "Bottom Up" ansehen; abgesehen davon, dass die viele Löschwarnungen
berechtigt sind, wird doch arg viel nach ziemlich festen Regeln
entfernt.
Wo kommen denn die Regeln her? Die sind genauso entstanden wie die
Artikel, auf die sie angewandt werden. Die meisten Regeln halte ich für
sinnvoll, inkl. der Wörterbuch-Regel -- dafür gibt es Wiktionary.
Episodenlisten finde ich wie Besetzungs- und Tracklisten OK, wenn sie
reguläre Artikel ergänzen. Alle unsere Regeln sind flexibel und können
jederzeit hinterfragt werden.
Ein typischer Fehler ist es, sich die Löschkandidaten anzusehen und darauf
zu schließen, dass wir unglaublich löschfreudig sind. Ein großer Teil der
Kandidaten wird gar nicht gelöscht, weil es dazu einer einvernehmlichen
Entscheidung bedarf.
Wichtig ist mir aber, dass Wikipedia eine von Menschen geschriebene
Enzyklopädie ist mit Artikeln, die auch gepflegt und weiterentwickelt
werden. Data-Dumping läuft diesem Prinzip zuwider, wie der Massen-Import
von Zensus-Daten auf En: gezeigt hat.
Wobei wir wieder bei der Frage des
Selbstverständnisses sind: Was ist
enzyklopädisch für die Wikipedia? Geht es um eine Universalenzyklopädie
(à la Data Becker Lexikon oder Wissen.de), oder um etwas mehr (à la
Britannica)? Und wo steht eigentlich in Fels gemeißelt, daß die
Wikipedia dort Schluß machen muß, wo die Britannica aufhört?
Nirgendwo, und das tun wir ja auch nicht. Siehe z.B. Wikipedia:Unusual
articles auf en. Da sind so schöne Artikel wie "List of movies that are
famous for being widely considered extremely bad".
Dennoch fallen mir zumindest zwei Argumente ein: (1)
Das Retten der
Daten unter GNU FDL (daß die ihre Listen, die *wir* jahrelang
zusammengetragen haben, jetzt deklarieren als "the data is NOT FREE"
piekt mich ziemlich an)
Einen legitimen Copyright-Anspruch haben wir eher, wenn wir mein Prinzip
anwenden und die Daten nur zu Artikeln hinzufügen, die wir selbst
geschrieben haben. Wenn wir dagegen massenhaft IMDB-Daten importieren und
daraus Artikel generieren, kann IMDB auf Urheberrecht an der Sammlung
verweisen.
und (2) das Verhindern, dass Stubs à la Truman
Show immer wieder von neuem manuell angelegt und womöglich immer wieder
gelöscht werden
Stubs sollten grundsätzlich nicht gelöscht werden.
Da fällt mir ein, dass die englische Wikipedia doch
auch mal so eine
Diskussion hatte; damals ging es, glaube ich, um Massenimporte aus
statistischen Daten zu Städten/Regionen der USA. Der Import hat ja
damals stattgefunden, aber wie ging das dann weiter? Haben die
Daten-Stubs verhindert, daß Artikel zu den Städten/Regionen angelegt
wurden? Oder gab es andere Probleme?
Vor allem verstopfen diese Einträge immer noch "Random page", und es gab
unzählige Diskussionen darüber, ob 20-Personen-Kuhdörfer einen Wikipedia-
Artikel verdienen. Und jedes Mal, wenn wir unsere Artikelzahl irgendwo
erwähnen, beschweren sich die anderen Wikis, dass wir schummeln würden.
> Dieses Prinzip scheint mir dem organischen
Wachstum der Wikipedia
> eher angemessen. Vielleicht können wir es über eine API sogar an die
> Software koppeln, so dass man beim Schreiben eines Artikels über
> einen Film oder ein Musikalbum nur einen Knopf drücken muss, um die
> Referenzdaten reinzuladen.
Das klingt recht gut. Könnten wir überhaupt eigene
Bots laufen lassen,
oder müsste da wieder Brion ran?
Wir können alles. ;-) Aber so etwas würde ich lieber in die Software
integrieren, als erweiterte Edit-Funktion für registrierte User.
MfG
EMÖ