Yo creo que la prueba del algodón está aquí: http://es.wikipedia.org/w/index.php?title=Especial:Recentchanges&limit=5...
De cada diez, una seis hay que borrarlas directamente, tres requieren contextualizar o wikificar y, a veces una, es salvable...
Con eso está dicho todo
// ecemaml
On 2/25/07, Roberto roberto@cebollitas.org wrote:
El sáb, 24-02-2007 a las 15:46 +0100, Barcex escribió:
- La comunidad aprobó el uso captcha, esto puede detener más a
bots
que a humanos, pero ahora es cuestión de pedir a los
desarrolladores
que lo implementen pues tenemos derecho de hacer peticiones al igual que
lo
hacen en la "en".
Derecho a hacer peticiones tenemos. La realidad muestra que hay
muchas
peticiones sensatas de los proyectos (pasá por commons por ejemplo) a
los
que los desarrolladores no les prestan mucha atención. Hay que convivir
con
la realidad, y esa realidad es que la funcionalidad del MediaWiki no la podemos definir a nuestro gusto, que los desarrolladores tienen de hecho
la
libertad para elegir las prioridades de los que se pide, y que por ende
si
se pide algo de tan dudosa importancia y utilidad lo van a poner último
en
la cola de peticiones si no es que directamente lo rechacen.
Pero si la peticion viniese de w:en habría sido más escuchada.
- Ya tenemos un bot policía que puede detectar artículos creados con
cadenas imposibles que se puede mejorar.
Esa es la solución más rápida, eficiente, proactiva y positiva que
veo.
Como dije anteriormente hay técnicas para hacer esto bien, de hecho casi todas las técnicas de reconocimiento de spam de correo electrónico
pueden
aplicarse aquí. El algoritmo y técnicas de un robot se puede ir
mejorando
con el tiempo.
Yo creo que no es tan rápida, eficiente, proactiva y positiva porque está claro que no está funcionando en esos términos. Además, creo recordar que el bot que revierte, primera versión de ese robot fue criticado. Y por otra parte, para que el robot funcionase como queremos habría que darle permisos para borrar, sino lo hacemos pero queremos fiarnos de su criterio seguimos desperdiciando recursos.
- Se puede restringir la creación de nanoesbozos(menos de 200b para
mi criterio) sean estos coherentes o no, porque a fin y al cabo
vendrá
alguien que lo borrará.
Esta propuesta vuelve a chocar con tener que pedir nuevas funciones
para
el mediawiki, y bien podría implementarse esa regla como una regla más
del
robot. Es más, podría ser una regla que se combinase con otras.
Además de ser extraña, al final acabaría metiendose ruido para pasar ese filtro.
- Muchos de los actuales editores iniciaron como IP (aún más tengo
la
experiencia de haberme encontrado con dos editores muy constantes
que
no se registran y editan con gran calidad)
Por eso la necesidad de separar la paja del trigo, si se consigue un sistema que pueda detectar más o menos bien qué es artículo nuevo de IP vandálica/pruebas, de lo que es un artículo nuevo de IP válido, entonces mataremos los dos pájaros de un tiro.
No estoy nada de acuerdo, cuantos son ¿muchos? ¿de donde sale esta estadística? y de todos esos usuarios cuantos se habrían registrado si les hubiese aparecido un mensaje pidiendolo. Es más, con lo que es la blogocosa, en el hipotético caso de que se cerrase, con lo impopular que es la propuesta estad seguros de que todos los internautas cercanos a la wiki y posible editores se enterarían de que es necesario registrarse para editar.
- No todas las aportaciones de IP son vandalismo y sería una
perdida
para este proyecto, pues nos hacen falta editores con variedad de intereses que completen los temas que tengamos más débiles.
Creo que restringir completamente la edición de IPs es algo que hoy
por
hoy tendría mucho rechazo, para empezar, por lo que sin opinar de
ello lo
veo prácticamente inviable.
Lo mismo que el punto anterior, cualqueier editor de buena fe puede seguir editando. Además estamos olvidando aspectos que se penalizan con tanta creación de artículos como son (que recuerde ahora mismo) *Pérdida de la calidad promedio. *Aumento de páginas de autopromoción, irrelevanteces, pokemons varios y violaciones de copyrights. *Pérdida de recursos y menor capacidad de control.
Barcex _______________________________________________ Wikies-l mailing list Wikies-l@lists.wikimedia.org http://lists.wikimedia.org/mailman/listinfo/wikies-l
Además añadiré un sexto punto, la propuesta del cierre de creación de páginas nuevas a usuarios sin registrar es impopular, eso está claro y aunque a priori parezca que se pierden editores está claro que el que quiera editar puede hacerlo. Así que aunque sea impopular es una política práctica que básicamente reporta beneficios, vale tal vez perdamos páginas nuevas sobre conjuros Jedi de 3 líneas y sin wikificar, pero es un coste asumible.
Y por último, a todos los defensores del cualquiera puede seguir creando mierda, decirles que si no quieren apoyar la idea al menos hagan de vez en cuando repasitos de las últimas 250 páginas nuevas y si consiguen llegar a la primera, que se pasan por las páginas sin salida, si las terminan que se pasen por las páginas sin categorizar y luego por las que están por wikificar, que son los principales filtros para ver toda la ponzoña que se cuela. Y sino que al menos que trabajen en una herramienta para la revisión eficiente de páginas nuevas y no pido ideas, que de eso también tengo yo.
Siento ser tan agresivo, pero es que al final somos siempre los mismos que tenemos que andar filtrando toda la basura y personalmente hace meses que estoy harto y como dije en el primer mail, me siento impotente para realizar ese trabajo del que habla el informe de AAnosequé traducido por Chewie, las IPS crean mucho trabajo, pero si no nos encargamos de retocarlo, ni está enlazado, ni categorizado y muchas veces ni si quiera el formato es estético, así que esto decaerá en un estercolero de información masiva.
Un saludo
Wikies-l mailing list Wikies-l@lists.wikimedia.org http://lists.wikimedia.org/mailman/listinfo/wikies-l