Agon-
Nö, ich habe mir aber ein paar Wochen lang regelmässig die "Löschkandidaten" angesehen ;) Was da so abgeht kann ich nicht so recht als "Bottom Up" ansehen; abgesehen davon, dass die viele Löschwarnungen berechtigt sind, wird doch arg viel nach ziemlich festen Regeln entfernt.
Wo kommen denn die Regeln her? Die sind genauso entstanden wie die Artikel, auf die sie angewandt werden. Die meisten Regeln halte ich für sinnvoll, inkl. der Wörterbuch-Regel -- dafür gibt es Wiktionary. Episodenlisten finde ich wie Besetzungs- und Tracklisten OK, wenn sie reguläre Artikel ergänzen. Alle unsere Regeln sind flexibel und können jederzeit hinterfragt werden.
Ein typischer Fehler ist es, sich die Löschkandidaten anzusehen und darauf zu schließen, dass wir unglaublich löschfreudig sind. Ein großer Teil der Kandidaten wird gar nicht gelöscht, weil es dazu einer einvernehmlichen Entscheidung bedarf.
Wichtig ist mir aber, dass Wikipedia eine von Menschen geschriebene Enzyklopädie ist mit Artikeln, die auch gepflegt und weiterentwickelt werden. Data-Dumping läuft diesem Prinzip zuwider, wie der Massen-Import von Zensus-Daten auf En: gezeigt hat.
Wobei wir wieder bei der Frage des Selbstverständnisses sind: Was ist enzyklopädisch für die Wikipedia? Geht es um eine Universalenzyklopädie (à la Data Becker Lexikon oder Wissen.de), oder um etwas mehr (à la Britannica)? Und wo steht eigentlich in Fels gemeißelt, daß die Wikipedia dort Schluß machen muß, wo die Britannica aufhört?
Nirgendwo, und das tun wir ja auch nicht. Siehe z.B. Wikipedia:Unusual articles auf en. Da sind so schöne Artikel wie "List of movies that are famous for being widely considered extremely bad".
Dennoch fallen mir zumindest zwei Argumente ein: (1) Das Retten der Daten unter GNU FDL (daß die ihre Listen, die *wir* jahrelang zusammengetragen haben, jetzt deklarieren als "the data is NOT FREE" piekt mich ziemlich an)
Einen legitimen Copyright-Anspruch haben wir eher, wenn wir mein Prinzip anwenden und die Daten nur zu Artikeln hinzufügen, die wir selbst geschrieben haben. Wenn wir dagegen massenhaft IMDB-Daten importieren und daraus Artikel generieren, kann IMDB auf Urheberrecht an der Sammlung verweisen.
und (2) das Verhindern, dass Stubs à la Truman Show immer wieder von neuem manuell angelegt und womöglich immer wieder gelöscht werden
Stubs sollten grundsätzlich nicht gelöscht werden.
Da fällt mir ein, dass die englische Wikipedia doch auch mal so eine Diskussion hatte; damals ging es, glaube ich, um Massenimporte aus statistischen Daten zu Städten/Regionen der USA. Der Import hat ja damals stattgefunden, aber wie ging das dann weiter? Haben die Daten-Stubs verhindert, daß Artikel zu den Städten/Regionen angelegt wurden? Oder gab es andere Probleme?
Vor allem verstopfen diese Einträge immer noch "Random page", und es gab unzählige Diskussionen darüber, ob 20-Personen-Kuhdörfer einen Wikipedia- Artikel verdienen. Und jedes Mal, wenn wir unsere Artikelzahl irgendwo erwähnen, beschweren sich die anderen Wikis, dass wir schummeln würden.
Dieses Prinzip scheint mir dem organischen Wachstum der Wikipedia eher angemessen. Vielleicht können wir es über eine API sogar an die Software koppeln, so dass man beim Schreiben eines Artikels über einen Film oder ein Musikalbum nur einen Knopf drücken muss, um die Referenzdaten reinzuladen.
Das klingt recht gut. Könnten wir überhaupt eigene Bots laufen lassen, oder müsste da wieder Brion ran?
Wir können alles. ;-) Aber so etwas würde ich lieber in die Software integrieren, als erweiterte Edit-Funktion für registrierte User.
MfG EMÖ