Jeżeli jest to ze względów wydajnościowych, to może lepiej byłoby to uzyskać z zrzutów bazy danych?
a gdzie takie zrzuty można dostać ?
tutaj są opisane http://meta.wikimedia.org/wiki/Data_dumps
a jeśli chodzi o wydajność to przecież nikt nie mówi tutaj o czymś takim aby te wyszukiwania były na żądanie, mogło by się to odbywać nawet i co pół roku, i tak miało by jakąś wartość
Jak dużo danych będzie nieaktualne, to to zniechęci część użytkowników. Zrzuty sprzed kilku dni powinny być wystarczające.
naprzykład ciekawi mnie jakie jest największe objętościowo hasło które nie ma żadnego interwiki ?
i odwrotnie, jakie jest nawiększe objętościowo hasło w angielskiej wiki które nie ma swojego polskiego odpowiednika ? nawet jeśli był by to typowy dla tamtej kultury temat, nie wiem, jakieś wypracowanie o Nevadzie to i tak przydało by się chociaż parę zdań na ten temat u nas. To samo tyczy się wszystkich języków.
Mnóstwo ciekawych rzeczy zrobią proste zapytania SQL do bazy danych uzyskanej z zrzutu, tabele są opisane na http://www.mediawiki.org/wiki/Manual:Database_layout.
Czy Toolserver ma narzędzia związane z interwiki?