La necesidad está relacionada con la distribución de la Wikipedia en español en
CD/DVD. Intentamos colaborar con un proyecto de PyAr(CDPedia) porque tenemos
objetivos comunes. Por acá tengo un proyectico con pylucene que actualmente hace
las búsquedas contra los xml, pero devolverle al usuario el xml no es una opción :(.
--
Saludos,
Zuzel
blog:
http://deltha.uh.cu/~zuze
Mensaje citado por Platonides <platonides(a)gmail.com>om>:
Zuzel Vera Pacheco escribió:
Me va costar bastante trabajo obtener los html de
los xml pero haré el
intento.
Tengo entendido que tendría que montar el
mediawiki con la wiki en español
por
acá y usar la extensión DumpHtml, si hay un
proceso más fácil me dicen.
La ventaja de tenerlos en
http://static.wikipedia.org/downloads/ es que
todos
los que necesiten el dump no tengan que hacer el
proceso de conversión.
Gracias de todas formas por responder :)
Ya lo sé, pero es el método que tienes. ¿Puedo preguntar para qué los
necesitas? Tal vez no necesites generar los html.
_______________________________________________
Wikies-l mailing list
Wikies-l(a)lists.wikimedia.org
https://lists.wikimedia.org/mailman/listinfo/wikies-l
--
"Al mundo nuevo corresponde la Universidad nueva"
UNIVERSIDAD DE LA HABANA
280 aniversario