Elisabeth Bauer wrote:
[..] Die Ermittlung des Wertes ist nicht perfekt, liefert in ersten Tests aber anscheinend brauchbare Ergebnisse. Mit einem solchen Score könnte man erstmal potentiell "gefährliche" Artikel aussortieren.
Um was - sie manuell nachzuprüfen?
Richtig.
Mein Voranschlag für Google wären 20.000 / Tag für 2 Monate, was für die dt. Wikipedia reichen sollte. Evtl. hätte andere Wikipedias auch Interesse an solch einer Überprüfung, müsste man nachfragen.
Das Nadelöhr liegt nicht bei Google, sondern in der begrenzten Recherchezeit unsrer Mitarbeiter hier, die ich eigentlich lieber auf das Schreiben neuer Artikel verwandt sehe als auf die Kontrolle der Resultate eines Computer-Programms.
Das ist ja gerade der Haken. Der automatisch ermittelte Wert macht es doch gerade möglich, mit sehr wenig Aufwand eine große Anzahl von Textbeiträgen zu überprüfen. Ich denke, dass ganze ist auch von einer einzelnen Person zu schaffen. Du brauchst also keine Angst haben, dass dadurch evtl. das Artikelschreiben zu kurz kommt.
Und ohne eine manuelle Nachprüfung können wir mit den Ergebnissen nichts anfangen.
S.o.
Wir müssten aussortieren:
[..]
Wo ist das Problem? Mit einem Blick erkennt man doch ob es ein Gesetzestext ist oder nicht. Meyer-Artikel werden auch problemlos als solche schon allein an der gefunden URL erkannt...
anschließend alle Artikel umschreiben, die im normalen Wikipedia-Prozess erweitert und ergänzt wurden und den freien Content retten.
Das lässt sich ja sicherlich im Einzelfall entscheiden. Kein Grund sich jetzt schon Gedanken darüber zu machen.
In begrenztem Rahmen "fischig" erscheinenden neuen Beiträgen nachzuspüren, finde ich völlig angebracht, aber dieses Programm geht zu weit.
Zu weit? Wieso? Was sollte denn passieren? Ulrichs Einwand finde ich dagegen schon gewichtiger. Aber andersrum könnte man auch sagen "Es schadet doch auch nichts".
viele Grüße, elian
Liebe Grüße, Nils.