Jeżeli jest to
ze względów wydajnościowych, to może lepiej byłoby to
uzyskać z zrzutów bazy danych?
a gdzie takie zrzuty można dostać ?
tutaj są opisane
http://meta.wikimedia.org/wiki/Data_dumps
a jeśli chodzi o wydajność to przecież nikt nie mówi
tutaj o czymś
takim aby te wyszukiwania były na żądanie, mogło by się to odbywać
nawet i co pół roku, i tak miało by jakąś wartość
Jak dużo danych będzie
nieaktualne, to to zniechęci część użytkowników. Zrzuty
sprzed kilku dni powinny być wystarczające.
naprzykład ciekawi mnie jakie jest największe
objętościowo hasło które
nie ma żadnego interwiki ?
i odwrotnie, jakie jest nawiększe objętościowo hasło w angielskiej
wiki które nie ma swojego polskiego odpowiednika ? nawet jeśli był by
to typowy dla tamtej kultury temat, nie wiem, jakieś wypracowanie o
Nevadzie to i tak przydało by się chociaż parę zdań na ten temat u
nas. To samo tyczy się wszystkich języków.
Mnóstwo ciekawych rzeczy zrobią proste
zapytania SQL do bazy danych uzyskanej
z zrzutu, tabele są opisane na
http://www.mediawiki.org/wiki/Manual:Database_layout.
Czy Toolserver ma narzędzia związane z interwiki?