Filzstift:
<dampfablass>Das wäre wirklich dumm für mich.
Muss ich jetzt dafür
extra noch Mediawiki installieren oder was? Und die GBs von Daten für
wikisign sprachgetrennt noch zu parsen würde mich echt ank*****. Das
Ganze würde mindestens ein paar Tage gehen.</dampfablass>
Ich weiß nicht, ob es jetzt noch interessiert, aber ich habe ein
Perl-Script geschrieben, dass die "pages_current.xml.gz"-Dumps
in cur-Dumps umwandeln kann:
http://de.wikipedia.org/wiki/Wikipedia:Xml2sql
--
GMX DSL = Maximale Leistung zum minimalen Preis!
2000 MB nur 2,99, Flatrate ab 4,99 Euro/Monat:
http://www.gmx.net/de/go/dsl