hallo,
gibt es eine HTML-Version der Wikipedia bzw. kann man so eine selber anfertigen?
Gruß, Simon
-- Du bist gerne auf Abenteuer aus und kommst aus Vorarlberg und Umgebung? Du kennst die Geschichte vom Herrn der Ringe und willst auch mal diese interessanten Dinge erleben? Dann bist du bei den Rollenspielern genau richtig. Besuche unsere Homepage unter www.rollenspieler.at.tc. Oder ruf an unter 0043/676/6743748.
gibt es eine HTML-Version der Wikipedia bzw. kann man so eine selber anfertigen?
Es gab mal eine Webseite, aber die wurde nicht mehr weitergepflegt von ihrem Autor, dort konnte man sich die Enzyklopädie als HTML runterladen.
Ja du kannst dir durchaus selber die HTML-Seiten erzeugen. Ist ja alles als XML Datei verfügbar. Musst es halt nur nach XHTML umwandeln (parsen).
Stefan
Moin,
Am 06.10.05 schrieb Stefan Kühn kuehns@uni-trier.de:
gibt es eine HTML-Version der Wikipedia bzw. kann man so eine selber anfertigen?
Es gab mal eine Webseite, aber die wurde nicht mehr weitergepflegt von ihrem Autor, dort konnte man sich die Enzyklopädie als HTML runterladen.
War auf der letzten CD oder DVD nicht statisches HTML drauf? Irgendwas gibt es auf jeden Fall, es ist vermutlich nur stark veraltet.
Liebe Grüße,
Michael 'da didi' Diederich
-- Student: Business Applications of Computer Science (Bachelor) Furtwangen http://de.wikipedia.org/wiki/Benutzer:MichaelDiederich http://www.md-d.org
Hallo,
Michael Diederich michael.diederich@gmail.com schrieb am Thu, 06 Oct 2005 13:51:39 +0200:
War auf der letzten CD oder DVD nicht statisches HTML drauf? Irgendwas gibt es auf jeden Fall, es ist vermutlich nur stark veraltet.
bei der letzten DVD lag eine CD bei, die bootfähig war und mit der man sich dann die Wikipedia-Seiten offline im Browser anschauen konnte. Statisches HTML war das aber nicht.
MfG Christian Thiele
hi,
On 6 Oct 2005 at 13:51, Michael Diederich wrote:
War auf der letzten CD oder DVD nicht statisches HTML drauf? Irgendwas gibt es auf jeden Fall, es ist vermutlich nur stark veraltet.
aha. hab die dvd hier. aber hab auf der cd mal nix auf .htm oder .html endendes gefunden.
gruß, simon
Kann man mithilfe von Perl/PHP/VB.NET/VC sich einen solchen Konverter basteln? Sowas juckt mich auch schon seit langem...
Marco
PS: Wenn die WM-Sources nicht so unstrukturiert wären, könnte ich die Parser rausholen(mithilfe meines Apache/XAMPP)
-----Original Message----- From: wikide-l-bounces@Wikipedia.org [mailto:wikide-l-bounces@Wikipedia.org]On Behalf Of Stefan Kühn Sent: Thursday, October 06, 2005 1:50 PM To: simon.eigeldinger@vol.at; 'Mailingliste der deutschsprachigen Wikipedia' Subject: RE: [Wikide-l] Wikipedia als HTML-Version?
gibt es eine HTML-Version der Wikipedia bzw. kann man so eine selber anfertigen?
Es gab mal eine Webseite, aber die wurde nicht mehr weitergepflegt von ihrem Autor, dort konnte man sich die Enzyklopädie als HTML runterladen.
Ja du kannst dir durchaus selber die HTML-Seiten erzeugen. Ist ja alles als XML Datei verfügbar. Musst es halt nur nach XHTML umwandeln (parsen).
Stefan
WikiDE-l mailing list WikiDE-l@Wikipedia.org http://mail.wikipedia.org/mailman/listinfo/wikide-l
Marco S. schrieb:
Kann man mithilfe von Perl/PHP/VB.NET/VC sich einen solchen Konverter basteln? Sowas juckt mich auch schon seit langem...
PS: Wenn die WM-Sources nicht so unstrukturiert wären, könnte ich die Parser rausholen(mithilfe meines Apache/XAMPP)
Ohne MediaWiki wird es dank der vielen Extras und Besonderheiten des Wikitext-Codes wohl schwierig werden. Das Aufsplitten des XML-dumps in einzelne Dateien (Tip: als Dateiname wegen Sonderzeichen die interne ID und nicht den Titel verwenden, siehe auch [1]) ist noch trivial aber schon das Ersetzen aller Vorlagen ist ein Akt. Ist aber möglich und würde mich auch sehr interessieren. Es gibt übrigens schon mehrere Versuche eines Parsers für Wikitext. Die Dateinamen der Bilder lassen sich übrigens aus ihrem Namen berechnen.
Gruß, Jakob
[1] http://meta.wikimedia.org/wiki/User:Nichtich/Process_MediaWiki_XML_export
Jakob Voss wrote:
Marco S. schrieb:
Kann man mithilfe von Perl/PHP/VB.NET/VC sich einen solchen Konverter basteln? Sowas juckt mich auch schon seit langem...
PS: Wenn die WM-Sources nicht so unstrukturiert wären, könnte ich die Parser rausholen(mithilfe meines Apache/XAMPP)
Ohne MediaWiki wird es dank der vielen Extras und Besonderheiten des Wikitext-Codes wohl schwierig werden. Das Aufsplitten des XML-dumps in einzelne Dateien (Tip: als Dateiname wegen Sonderzeichen die interne ID und nicht den Titel verwenden, siehe auch [1]) ist noch trivial aber schon das Ersetzen aller Vorlagen ist ein Akt. Ist aber möglich und würde mich auch sehr interessieren. Es gibt übrigens schon mehrere Versuche eines Parsers für Wikitext. Die Dateinamen der Bilder lassen sich übrigens aus ihrem Namen berechnen.
Ich wollte die Ankündigung eigentlich auf wikipedia-l schreiben, wenn alles fertig ist, aber was solls...
Ich habe ein Paket, basierend auf dem Tinyweb-Server, PHP, sqlite und einem Original-MediaWiki (ungepatched!), das ohne Installation funktioniert. Einfach auf die Platte kopieren, läuft!
Aber, wie gesagt, noch nicht fertig: Ich habe ein Programm geschrieben, das einen XML-dump in eine sqlite-Datenbank konvertiert, die dann von MediaWiki genutzt werden kann. Leider * dauert das recht lange (ca. 6h für den en-dump) * wird recht groß (ca. 3GB für den en-dump; kann aber für Transportzwecke wohl auf CD-Größe komprimiert werden) * die Datenbank ist im Moment bei voller Größe noch unbenutzbar langsam. Da muss ich noch mit den Indices sspielen...
Ansonsten läuft es relativ problemlos...
Magnus
P.S.: Wer helfen will: Sourcen gibt's bei mir :-)