La necesidad está relacionada con la distribución de la Wikipedia en español en
CD/DVD. Intentamos colaborar con un proyecto de PyAr(CDPedia) porque tenemos
objetivos comunes. Por acá tengo un proyectico con pylucene que actualmente hace
las búsquedas contra los xml, pero devolverle al usuario el xml no es una opción :(.
--
Saludos,
Zuzel
blog:
http://deltha.uh.cu/~zuze
Mensaje citado por Platonides
platonides@gmail.com:
> Zuzel Vera Pacheco escribió:
> > Me va costar bastante trabajo obtener los html de los xml pero haré el
> intento.
> > Tengo entendido que tendría que montar el mediawiki con la wiki en español
> por
> > acá y usar la extensión DumpHtml, si hay un proceso más fácil me dicen.
> >
> > La ventaja de tenerlos en
http://static.wikipedia.org/downloads/ es que
> todos
> > los que necesiten el dump no tengan que hacer el proceso de conversión.
> >
> > Gracias de todas formas por responder :)
>
> Ya lo sé, pero es el método que tienes. ¿Puedo preguntar para qué los
> necesitas? Tal vez no necesites generar los html.
>
> _______________________________________________
> Wikies-l mailing list
> Wikies-l@lists.wikimedia.org
>
https://lists.wikimedia.org/mailman/listinfo/wikies-l
>
--
"Al mundo nuevo corresponde la Universidad nueva"
UNIVERSIDAD DE LA HABANA
280 aniversario