Nils Kehrein wrote:
So jetzt was konkretes ... um nicht alle Ergebnis manuell nachzuprüfen habe ich soetwas wie einen "Score"-Wert in mein Programm eingebaut. Hoher Score = wahrscheinlich Urv, Niedriger Score = wahrscheinlich Ok oder kopierter Text zu kurz um als solcher einen hohen Score zu erzielen. Die Ermittlung des Wertes ist nicht perfekt, liefert in ersten Tests aber anscheinend brauchbare Ergebnisse. Mit einem solchen Score könnte man erstmal potentiell "gefährliche" Artikel aussortieren. Mein Voranschlag für Google wären 20.000 / Tag für 2 Monate, was für die dt. Wikipedia reichen sollte. Evtl. hätte andere Wikipedias auch Interesse an solch einer Überprüfung, müsste man nachfragen.
Hi Nils,
sicherlich sind URV bei der Wikipedia wichtig. Allerdings sehe ich das ähnlich wie Uli: ich bin seit etwa Artikel 10.000 dabei und bisher war es kein großes Problem die neuen Artikel per Hand zu kontrollieren. Da die Wikipedia erst später extrem populär geworden ist, denke ich, dass auch erst später das Problem der URV auftrat. Ich bin nämlich zuversichtlich, dass die damaligen Autoren auf das Urheberrecht geachtet haben.
Weiterhin problematisch ist der Einsatz eines Bots zu Zeiten in denen der Wikipedia-Server immer mehr unter der normalen Benutzerlast zusammenbricht. Von daher würde ich (momentan?) von der Belastung des Servers durch einen weiteren Bot absehen (soweit ich weiß sind im Moment ziemlich viele Bots auch gebannt worden).
Gruß
Thomas