Moin
On 17.12.2009, at 17:58, Christian Thiele wrote:
Automatisch kann man daher mit einfachen Mitteln meiner Meinung nach nicht
viel tun. Vermutlich kann man mit besseren Algorithmen ein wenig mehr
erreichen (Naive Bayes ist ja einer der einfachsten, aber Thunderbird
arbeitet auch mit nicht viel besserem). 100% Sicherheit wird man aber
nicht hinbekommen.
Und ich spreche mich stark dagegen aus, etwas automatisch zu löschen. Bei
all den Diskussionen sind die Artikel, die so einwandfrei Spam sind, dass
sie ein Algorithmus erkennen könnte, nicht das Problem - diese werden zu
den meisten Zeiten verdammt schnell gelöscht - das kostet ja kaum Zeit.
Problematisch sind die Fälle, in denen halt selbst für einen Menschen
schwierig zu entscheiden ist, was man mit dem schlechten Artikelanfang
macht.
hmm also als jemand der im studium schonmal mit automatischen plagiat-prüfungen stress
hatte, bin ich da gespaltener meinung. zum einen denke ich das es durchaus sinn macht auch
diese "verdammt schnell gelöscht " zu automatisieren. hier eingespaarte zeit ist
sicherlich besser anderen ortes genutzt.
dennoch sollte man es nicht dem automaten vertrauen und dies in regelmäßigen abständen
überprüfen.
aber die plagiats suche zum beispiel.... wo setzt man da die grenze? in meiner schulzeit
hieß es immer "ihr dürft nicht mehr als 4 wörter am stück aus der quelle übernehmen.
wenn ich aber den namen einer RFC übernehmen muß, dann sind es meistens schon mehr.
allerdings denke ich das es sinn machen könnte dies zu automatisieren. wenn jemand in
kurzen abstand viele lange neue artikel anlegt, dann könnte man nen bot nutzen um schonmal
admins auf mögliche quellen für plagiate hinzuweisen.
also teilweise automatisieren um die entscheidungsprozesse zu unterstützen... klares ja.
aber klares nein zu: automatisieren um entscheidungen vollständig zu ersetzen!
cu assetburned