Me va costar bastante trabajo obtener los html de los xml pero haré el intento.
Tengo entendido que tendría que montar el mediawiki con la wiki en español por
acá y usar la extensión DumpHtml, si hay un proceso más fácil me dicen.
La ventaja de tenerlos en
http://static.wikipedia.org/downloads/ es que todos
los que necesiten el dump no tengan que hacer el proceso de conversión.
Gracias de todas formas por responder :)
--
Saludos,
Zuzel
blog:
http://deltha.uh.cu/~zuze
Mensaje citado por Platonides <platonides(a)gmail.com>om>:
Zuzel Vera Pacheco escribió:
En
http://static.wikipedia.org/downloads donde
están los dump en html de
wikipedia desde April_2007 no se renueva el de la wikipedia en español.
Han
salido ya varias actualizaciones de otros idiomas
una de August_2007 y
otra de
2008-02. Hay alguna razón para que la wikipedia
en español no esté en
estas
versiones más nuevas?
Me hace falta un dump más reciente. Alguien sabe si pudiera obtenerlo de
algún
otro lugar?
Puedes obtener un dump XML en
http://download.wikimedia.org/eswiki/20080317/
Los dumps estáticos siempre han sido poco regulares. Si hiciera falta,
podrías generar uno estático a partir de los datos XML de la base de datos.
_______________________________________________
Wikies-l mailing list
Wikies-l(a)lists.wikimedia.org
https://lists.wikimedia.org/mailman/listinfo/wikies-l
--
"Al mundo nuevo corresponde la Universidad nueva"
UNIVERSIDAD DE LA HABANA
280 aniversario