Hi,
ich habe eben ein wenig mit dem letzten artikeldump von download.wikimedia.org gespielt und angefangen, hyperlinks aus den Artikeln zu extrahieren. URLs, die als Templates entstehen (wikinews, imdb und so) werden so erstmal nicht erkannt. Einige URLs sehen von der Struktur eher unmöglich aus.
328212 erkannte URLs
154746 erkannte urls aus .de 64532 erkannte eindeutige domain-namen aus .de
2189 Links nach juris.de 1163 Links nach heise.de 1149 Links nach spiegel.de 1128 Links nach google.de 826 Links nach zeit.de 379 Links nach bund.de 372 Links nach taz.de 120 Links nach jungewelt.de 30 Links nach wikiweise.de 26 Links nach wissen.de 10 Links nach brockhaus.de
Hallo Mathias,
Sunday, January 8, 2006, 11:12:51 PM, you wrote:
Hi,
ich habe eben ein wenig mit dem letzten artikeldump von download.wikimedia.org gespielt und angefangen, hyperlinks aus den Artikeln zu extrahieren.
[...]
2189 Links nach juris.de 1163 Links nach heise.de 1149 Links nach spiegel.de
Wobei sich imo schon ganz allgemein die Frage stellt, welchen Sinn es in einem Projekt, das sich der Freien und nachhaltigen Verbreitung von Wissen verschrieben hat, Artikel von Anbietern zu verlinken, die ihr "Wissen" in Bezahlarchiven verstecken.
ciao Olaf
On 1/9/06, Joerg-Olaf Schaefers listen@fx3.de wrote:
Wobei sich imo schon ganz allgemein die Frage stellt, welchen Sinn es in einem Projekt, das sich der Freien und nachhaltigen Verbreitung von Wissen verschrieben hat, Artikel von Anbietern zu verlinken, die ihr "Wissen" in Bezahlarchiven verstecken.
Ein Teil davon geht nach gutenberg.spiegel.de.
Mathias
ich habe eben ein wenig mit dem letzten artikeldump von download.wikimedia.org gespielt und angefangen, hyperlinks aus den Artikeln zu extrahieren.
[...]
2189 Links nach juris.de 1163 Links nach heise.de 1149 Links nach spiegel.de
Wobei sich imo schon ganz allgemein die Frage stellt, welchen Sinn es in einem Projekt, das sich der Freien und nachhaltigen Verbreitung von Wissen verschrieben hat, Artikel von Anbietern zu verlinken, die ihr "Wissen" in Bezahlarchiven verstecken.
die spiegel-Links werden idR schon von Fleissigen schnell wieder entfernt, bevor SPON die in Bezahl-Links umwandelt. Will sagen: die Links zu SPON sind inzwischen faktisch unerwünscht.
Heise Newsticker-Meldungen habe ich aber noch nicht im Zahlarchiv verschwinden sehen. Was da sonst noch für Links sind: Maile mir eine Liste zu, ich prüfe das gern. Gilt übrigens auch für die SPON-Links.
-jha-
Hallo Wikipedianer,
Joerg-Olaf Schaefers schrub:
1149 Links nach spiegel.de
Wobei sich imo schon ganz allgemein die Frage stellt, welchen Sinn es in einem Projekt, das sich der Freien und nachhaltigen Verbreitung von Wissen verschrieben hat, Artikel von Anbietern zu verlinken, die ihr "Wissen" in Bezahlarchiven verstecken.
Ein Problem duerfte sein, dass es vielen Linksetzern nicht bewusst ist, dass die Spon-Links, die ja zum Zeitpunkt der Linksetzung in der Regel frei zugaenglich sind, nach einiger Zeit 'verschwinden'.
Tschuess, Tim.
Hallo!
Wie kann ich die Benutzerkonten (Logins) von einer MediaWiki-Installation 1.4.x in eine andere existierende MediaWiki-Installation 1.5.x transferieren?
Grüße, Jan
Am 09.01.2006 um 01:11 schrieb Jan:
Hallo!
Wie kann ich die Benutzerkonten (Logins) von einer MediaWiki- Installation 1.4.x in eine andere existierende MediaWiki- Installation 1.5.x transferieren?
1) Immer neue Mail senden und nicht auf alte Threads antworten, verwirrt die meisten Mail-Clients 2) Ich würde vorschlagen my phpmyadmin einen dump zu erzeugen dabei aber die user_id draußen zu lassen wenn in der neuen db schon user sind. Das ganze dann in der neuen DB wieder importieren. Von Seiten MediaWiki gibt's da gar nichts.
ciao, tom
-- http://www.tomk32.de - just a geek trying to change the world http://de.wikipedia.org/wiki/Benutzer:TomK32 http://verlag.tomk32.de/c/wrdigest
Thomas R. Koll wrote:
- Ich würde vorschlagen my phpmyadmin einen dump zu erzeugen dabei aber die user_id draußen zu lassen wenn in der neuen db schon user sind. Das ganze dann in der neuen DB wieder importieren. Von Seiten
MediaWiki gibt's da gar nichts.
Das gibt Probleme, denn user_token basiert auf der ID. user_id muss also erhalten bleiben, oder user_token muss manuell neu erzeugt werden.
Magnus
Danke, Markus und Tom.
In der neuen Wiki (1.5) gibt es noch keine Benutzer (außer mich selber und WikiSysOp).
Es wäre halt toll gewesen, wenn es eine Funktion gegeben hätte, mit der man die User von der 1.4 in die neue 1.5 importieren könnte (dann müssten diese sich nicht erneut mit Passwort und Emailadresse registrieren).
Gruß, Jan
Ulrich Fuchs wrote:
Sind das nur Links aus dem Artikelnamensraum oder auch von Diskussionsseiten?
Alle Links aus 20051211_pages_articles.xml.bz2
Also auch ein "hahaha, 17 Fehler in [http://www.wikiweise.... diesem WW-Artikel]" auf einer Benutzerdiskussionsseite zählt dazu - genauso wie ein Lob oder die neutrale Erwähung.
Mathias
Hallo,
Mathias Schindler neubau@presroi.de schrieb am Mon, 09 Jan 2006 09:12:17 +0100:
Ulrich Fuchs wrote:
Sind das nur Links aus dem Artikelnamensraum oder auch von Diskussionsseiten?
Alle Links aus 20051211_pages_articles.xml.bz2
Also auch ein "hahaha, 17 Fehler in [http://www.wikiweise.... diesem WW-Artikel]" auf einer Benutzerdiskussionsseite zählt dazu - genauso wie ein Lob oder die neutrale Erwähung.
Das ist so nicht richtig ;). Dumps, die auf _articles enden beinhalten nur Artikel und Vorlagen. Und den Wikipedia-Namensraum glaub ich. Auf jeden Fall keine Diskussionsseiten und Benutzerseiten.
MfG Christian Thiele (APPER)
Am 08.01.2006 um 23:12 schrieb Mathias Schindler:
Einige URLs sehen von der Struktur eher unmöglich aus.
Meinst du in der Darstellung? Da treff ich auch immer auf viel zu verschiedene Methoden, leider.
1163 Links nach heise.de
welchen Anteil hat da Telepolis?
372 Links nach taz.de 120 Links nach jungewelt.de
sonst keine Tagszeitung? Erfreulich aber auch etwas bedenklich... Wo bleibt Indymedia?
30 Links nach wikiweise.de 26 Links nach wissen.de 10 Links nach brockhaus.de
sind die nur auf den entsprechenden Artikeln und Diskussionen? Wobei ein link auf wikiweise nicht stören darf wenn er wirklich besser ist.
ciao, tom
-- http://www.tomk32.de - just a geek trying to change the world http://de.wikipedia.org/wiki/Benutzer:TomK32 http://verlag.tomk32.de/c/wrdigest
Thomas R. Koll wrote:
1163 Links nach heise.de
welchen Anteil hat da Telepolis?
613 davon 546 unique
372 Links nach taz.de 120 Links nach jungewelt.de
sonst keine Tagszeitung? Erfreulich aber auch etwas bedenklich...
ich habe nicht alle abgeklopft.
Wo bleibt Indymedia?
93 .org 1 .de