Nie znam technicznego otoczenia Wikipedii, ale ostatnio bierze mnie słynna nerwica ze znakiem jakości. Firefox otwiera stronę Wikipedii 5-10 minut; IE owiera w minutę, ale każda zmiana "wisi" kilkanaście. Może przenieś Wikipedię na inne serwery, albo do innych prowadzących, a najlepiej poza warszawkę. Wielu znajomych uważa, że pycha warszawki doprowadziła do tego, że serwery w przysłowiowej Wólce Dolnej są kilkakroć lepsze od tych ze "stolycy". zrzędząco pozdrawiam MichałKa
Michał Kręcioch napisał(a):
Nie znam technicznego otoczenia Wikipedii, ale ostatnio bierze mnie słynna nerwica ze znakiem jakości. Firefox otwiera stronę Wikipedii 5-10 minut; IE owiera w minutę, ale każda zmiana "wisi" kilkanaście. Może przenieś Wikipedię na inne serwery, albo do innych prowadzących, a najlepiej poza warszawkę. Wielu znajomych uważa, że pycha warszawki doprowadziła do tego, że serwery w przysłowiowej Wólce Dolnej są kilkakroć lepsze od tych ze "stolycy". zrzędząco pozdrawiam MichałKa
Cóż, Michale, właśnie kolejny raz przeżywam frustrację z tych samych powodów co Ty. Niestety, jest to raczej kwestia "globalna", nie tylko w polskiej Wikipedii. Obiecanki-cacanki związane z poprawieniem szybkości w związku z zakupem nowego sprzętu słyszałam już w ciągu moich 10 miesięcy tutaj wielokrotnie. Nie ma nadziei i trzeba się przyzwyczaić... Pozdrawiam! Selena
On Sun, Jan 02, 2005 at 01:30:37PM +0100, selena wrote:
C??, Michale, w?a?nie kolejny raz prze?ywam frustracj? z tych samych powod?w co Ty. Niestety, jest to raczej kwestia "globalna", nie tylko w polskiej Wikipedii. Obiecanki-cacanki zwi?zane z poprawieniem szybko?ci w zwi?zku z zakupem nowego sprz?tu s?ysza?am ju? w ci?gu moich 10 miesi?cy tutaj wielokrotnie. Nie ma nadziei i trzeba si? przyzwyczai?...
Zjawisko wyglada tak: * Wikipedia jest wolna * Kupujemy nowy sprzet * Wikipedia przyspiesza * Poniewaz jest w koncu szybsza, przybywa jej piszacych * Poniewaz przybywa tresci, przybywa uzytkownikow * Poniewaz przybylo uzytkownikow, Wikipedia znow jest wolna
Ale bez obaw, Wikipedia jest juz w pierwszej 200 najpopularniejszych stron, wiec juz niedlugo staniemy sie najpopularniejsza strona w calym internecie i ten nieprzyjemny cykl sie skonczy.
I ciekawe czemu "staniemy sie najpopularniejsza strona w calym internecie" moze uwiarygodnic "Wikipedia bedzie szybka" ;-)
Zjawisko wyglada tak:
- Wikipedia jest wolna
- Kupujemy nowy sprzet
- Wikipedia przyspiesza
- Poniewaz jest w koncu szybsza, przybywa jej piszacych
- Poniewaz przybywa tresci, przybywa uzytkownikow
- Poniewaz przybylo uzytkownikow, Wikipedia znow jest wolna
To ja mam pytanie do Tawa. Czy wolne działanie Wikipedii wynika z tego, że ze względu na ruch nie wyrabiają się: 1. Serwer (serwery) SQL ? 2. Serwer (serwery) Apache ? 3. Serwer (serwery) Squid ? 4. Lącza pomiędzy powyższymi elementami (jakimi) ? 5. Łącza do Internetu ?
Pozdrawiam - Lzur
On Sun, Jan 02, 2005 at 02:39:57PM +0100, Leszek Zur wrote:
To ja mam pytanie do Tawa. Czy wolne dzia?anie Wikipedii wynika z tego, ?e ze wzgl?du na ruch nie wyrabiaj? si?:
- Serwer (serwery) SQL ?
- Serwer (serwery) Apache ?
- Serwer (serwery) Squid ?
- L?cza pomi?dzy powy?szymi elementami (jakimi) ?
- ??cza do Internetu ?
Zator sie cyklicznie zmienia pomiedzy baza danych a softem w phpie. Pozostale elementy maja dosc duze rezerwy.
W wiadomości wysłanej przez Tomasz 2 stycznia 2005 o 14:19:43 przeczytałem:
TW> Zjawisko wyglada tak: TW> * Wikipedia jest wolna TW> * Kupujemy nowy sprzet TW> * Wikipedia przyspiesza TW> * Poniewaz jest w koncu szybsza, przybywa jej piszacych TW> * Poniewaz przybywa tresci, przybywa uzytkownikow TW> * Poniewaz przybylo uzytkownikow, Wikipedia znow jest wolna
Z drugiej strony zjawisko wygląda tak:
December 2004, US$10,854.00 spent October 2004, US$18,809.00 spent August 2004: US$17,843 spent May 2004: US$20,047 January 2004: US$19,308 spent
Razem "spent" 86.861,00 dolarów... I dlaczego akurat w firmie http://www.siliconmechanics.com/ ? Bo tam jest najtaniej?
-- Chepry (Andrzej Barabasz)
Dnia 2 stycznia 2005, Tomasz w 20050102131943.GA1876@wroclaw.taw.pl.eu.org napisał:
Zjawisko wyglada tak:
- Wikipedia jest wolna
- Kupujemy nowy sprzet
- Wikipedia przyspiesza
- Poniewaz jest w koncu szybsza, przybywa jej piszacych
- Poniewaz przybywa tresci, przybywa uzytkownikow
- Poniewaz przybylo uzytkownikow, Wikipedia znow jest wolna
Zapomniałeś o punkcie "Optymalizujemy oprogramowanie" a moze i "Zmieniamy oprogramowanie jeśli stare się nie sprawdza"?
Bo jeśli chodzi o inne rozwiązania techniczne, to np. taki Usenet (protokół NNTP) ma tysiące użytkowników, dziesiątki tysięcy postów (edycji) codziennie na każdym przeciętnym serwerze NNTP, no i działa to bez większych problemów.
Dlaczego Wikipedia nie mogłaby tak działać, na takiej zasadzie, jako rozszerzenie protokółu NNTP?
Interfejs www też musiałby być jakiś, ale głównie dla gości i nowicjuszy, bo jeśli byłoby to logicznie rozwiązane to założę się, że czytniki-edytory rosłyby same jak grzyby po deszczu (wystarczyłyby jakieś pluginy do istniejących czytników news) i każdy Wikipedysta mógłby wybrać taki jaki najbardziej mu odpowiada a nie być skazanym na mediawiki.
Ale to tak w ramach ponoworocznego fantazjowania.;]
PiotrB. napisał(a):
Dnia 2 stycznia 2005, Tomasz w 20050102131943.GA1876@wroclaw.taw.pl.eu.org napisał:
Zjawisko wyglada tak:
- Wikipedia jest wolna
- Kupujemy nowy sprzet
- Wikipedia przyspiesza
- Poniewaz jest w koncu szybsza, przybywa jej piszacych
- Poniewaz przybywa tresci, przybywa uzytkownikow
- Poniewaz przybylo uzytkownikow, Wikipedia znow jest wolna
Zapomniałeś o punkcie "Optymalizujemy oprogramowanie" a moze i "Zmieniamy oprogramowanie jeśli stare się nie sprawdza"?
Bo jeśli chodzi o inne rozwiązania techniczne, to np. taki Usenet (protokół NNTP) ma tysiące użytkowników, dziesiątki tysięcy postów (edycji) codziennie na każdym przeciętnym serwerze NNTP, no i działa to bez większych problemów.
Usenet to jednak coś innego - wymaga zupełnie innego typu bazy danych. Podstawowa różnica to to, że raz napisany post nie ulega już żadnym zmianom. Nie trzeba więc przechowywać historii jego edycji i nie musi on być stale gotowy do kolejnej edycji. Między samymi postami nie ma też żadnych zwrotnych relacji, które baza danych musi obsługiwać. Zmiany w artykułach Wikipedii pojawiają się natychmiast po ich wprowadzeniu, zaś posty w usenecie "propagują" się po serwerach dość wolno. Są widoczne od razu tylko na tym serwerze z którego się korzysta samemu. Do wielu serwerów nie trafią wogóle nigdy. Jak się ogląda określone grupy usenetowe na dwóch różnych serwerach, łatwo można zaobserwować, że zbiory postów na nich nie są jednakowe. Niektórych postów może brakować, pojawiają się one w różnej kolejności itd.. Tego typu sytuacje nie mają prawa zdarzyć się w Wikipedii. Wikipedia jest największą na świecie relacyjną bazą danych dostępną do edycji on-line w czasie rzeczywistym 24 godziny na dobę - razem z zapisaną historią wszystkich artykułów liczy aktualnie ponad 20 milionów rekordów. W dodatku tej bazy nie można łatwo podzielić na mniejsze kawałki bo wszystko jest z sobą powiązane. Do tego dochodzi stały wzrost liczby wikipedystów i czytelników wikipedii. Nikt dotąd nie miał doświadczenia jak takie coś może działać, dlatego wszystkie problemy rozwiązuje się na bieżąco.
Dnia 2005-01-04 01:16, Użytkownik Tomek Polimerek Ganicz napisał:
W dodatku tej bazy nie można łatwo podzielić na mniejsze kawałki bo wszystko jest z sobą powiązane.
Dlaczego ?
O ile wiem to na razie wszystkie kilkaset baz danych SQL jest na jednym serwerze. Sądzę, że można to podzielić. Interwiki jest na poziomie treści artykułów a nie baz danych. Być może wystarczyłoby postawić SQL en-wiki na oddzielnym serwerze.
Pozdrawiam - Lzur
On Tue, Jan 04, 2005 at 10:41:48AM +0100, Leszek Zur wrote:
Dnia 2005-01-04 01:16, U?ytkownik Tomek Polimerek Ganicz napisa?:
W dodatku tej bazy nie mo?na ?atwo podzieli? na mniejsze kawa?ki bo wszystko jest z sob? powi?zane.
Dlaczego ?
O ile wiem to na razie wszystkie kilkaset baz danych SQL jest na jednym serwerze. S?dz?, ?e mo?na to podzieli?. Interwiki jest na poziomie tre?ci artyku??w a nie baz danych. By? mo?e wystarczy?oby postawi? SQL en-wiki na oddzielnym serwerze.
Baza jest w postaci master + kilka slave'ow. W duzym skrocie: read requesty sa robione do slave'ow, write requesty do mastera, synchronizacja jest przez odpowiedni binarny log.
Idea jest taka, ze jak bedziemy mieli wiecej sprzetu, podzieli sie ta strukture na 2 czesci - jedna na angielska+japonska wikipedie, druga na reszte (tak zeby bylo mniej wiecej pol na pol, udzial angielskiej w calosci systematycznie spada), kazda z tych czesci o strukturze master + slave'y.
Przepraszam, przez nieuwagę wysłałem odpowiedź na priv, a miało być tutaj:/ jeszcze raz: Dnia 4 stycznia 2005, Tomek w 41D9E075.7060002@toya.net.pl napisał:
Zapomniałeś o punkcie "Optymalizujemy oprogramowanie" a moze i "Zmieniamy oprogramowanie jeśli stare się nie sprawdza"? Bo jeśli chodzi o inne rozwiązania techniczne, to np. taki Usenet (protokół NNTP) ma tysiące użytkowników, dziesiątki tysięcy postów (edycji) codziennie na każdym przeciętnym serwerze NNTP, no i działa to bez większych problemów.
Usenet to jednak coś innego - wymaga zupełnie innego typu bazy danych. Podstawowa różnica to to, że raz napisany post nie ulega już żadnym zmianom.
? Bardzo podobnie jest w Wikipedii, każda nowa edycja artykułu zastępuje poprzednią, poprzednia jest zapisywana w archiwum, w którym znajdują się wszystkie wersje (odpowiednik serwerów news-archive).
Nie trzeba więc przechowywać historii jego edycji i nie musi on być stale gotowy do kolejnej edycji.
Historia edycji to nic innego jak lista artykułów w danym wątku (Tytuł artykułu) na określonej grupie (kategoria artykułu).
Między samymi postami nie ma też żadnych zwrotnych relacji, które baza danych musi obsługiwać.
Relacje są opisane w polach nagłówka: References, Newsgroups itd., każdy artykuł news ma Message-ID (który moze być tak spreparowany by zawierał istotne dla szybkości dostępu informacje), dzięki któremu łatwo można sprawdzić jego istnienie na serwerze, pobrać sam nagłówek lub tekst. Ustalenie relacji i ich prezentacja np. kolorowanie na czerwono linków do nieistniejących haseł to robota dla wikiczytnika.
To NNTP, a z drugiej strony mamy mechanizm mediawiki, który potrafi eksportować do XML tylko ostatnią wersję artykułu lub całość, nie można pobrać konkretnej wersji, ostatnia wersja nie zawiera informacji o wersjach poprzednich. Nie można pobrać samych informacji o artykule (nagłówków). Podobnie wersja text/x-wiki, wprawdzie chyba można pobrać konkretną wersję znając id, ale skąd ten id wziąć? Udostępniany RSS nie zawiera wielu ważnych informacji takich jak np. kategoria czy idy poprzednich wersji.
Zmiany w artykułach Wikipedii pojawiają się natychmiast po ich wprowadzeniu, zaś posty w usenecie "propagują" się po serwerach dość wolno. Są widoczne od razu tylko na tym serwerze z którego się korzysta samemu. Do wielu serwerów nie trafią wogóle nigdy. Jak się ogląda określone grupy usenetowe na dwóch różnych serwerach, łatwo można zaobserwować, że zbiory postów na nich nie są jednakowe. Niektórych postów może brakować, pojawiają się one w różnej kolejności itd.. Tego typu sytuacje nie mają prawa zdarzyć się w Wikipedii.
Powiedzmy, ze główne serwery news znajdowałyby się w jednym miejscu (lub każda wikipedia oddzielnie) i tu zapewniona byłaby pełna synchronizacja. A inne serwery news musiałyby postarać się (przy okazji źródło dochodów dla Fundacji) o zapewnienie odpowiednich parametrów, aby mieć uprawnienia do zapisu postów, bo z pobieraniem nie byłoby problemu (a większość ruchu jednak robią czytelnicy jak przypuszczam). Taki WikiUsenet z zawartością encyklopedyczną, to byłaby zupełnie inna jakość i przypuszczalnie dostawcom usług internetowych opłacałoby się zapewnić swoim klientom takie stałe darmowe źródło aktualnej wiedzy o świecie. Tym bardziej, że licencja GFDL umożliwia np. dołączanie reklam.
Poza tym WikiUsenet nie byłby takim chaosem jak obecny Usenet, miałby określoną hierarchię tematów, tematy haseł, tematy dyskusji (a moze podgrupy typu pl.kategoria.dyskusja), działałby wg bardziej restrykcyjnych zasad i musiałby mieć jednak poszerzone możliwości (np. większe uprawnienia dla administratorów).
Wikipedia jest największą na świecie relacyjną bazą danych dostępną do edycji on-line w czasie rzeczywistym 24 godziny na dobę - razem z zapisaną historią wszystkich artykułów liczy aktualnie ponad 20 milionów rekordów.
Sama grupa pl.sci.psychologia ma z tego co pamiętam ok. 200 tys. postów w archiwum. Na news.tpi.pl jest ponad 30 tys. grup, a na świecie?:)
W dodatku tej bazy nie można łatwo podzielić na mniejsze kawałki bo wszystko jest z sobą powiązane.
Dlaczego? Które powiązania są aż tak ważne? Czy aby wyświetlić jakiekolwiek hasło baza musi mieć pod ręką całą wiedzę ludzkości, wszystkie edycje?
Do tego dochodzi stały wzrost liczby wikipedystów i czytelników wikipedii. Nikt dotąd nie miał doświadczenia jak takie coś może działać, dlatego wszystkie problemy rozwiązuje się na bieżąco.
Tym bardziej trzeba myśleć zawczasu o zmianach.:)
Ja ten temat traktuję jako burzę mózgów, tak więc dzięki za wypowiedź, poruszyła trochę moje szare komórki i może przy okazji coś się urodzić. Fajnie by było gdyby jednak pomyślano o zmniejszeniu monopolu mediawiki i udostępniono bardziej użyteczne sposoby pozyskiwania danych z bazy przez zewnętrzne niezależne programy.
On Fri, 7 Jan 2005, PiotrB. wrote:
Dnia 4 stycznia 2005, Tomek w 41D9E075.7060002@toya.net.pl napisał:
Podstawowa różnica to to, że raz napisany post nie ulega już żadnym zmianom.
? Bardzo podobnie jest w Wikipedii, każda nowa edycja artykułu zastępuje poprzednią, poprzednia jest zapisywana w archiwum, w którym znajdują się wszystkie wersje (odpowiednik serwerów news-archive).
no nienajlepsza analogia - w usenecie wątki nie tworzą zwięzłej i dowolnie modyfikowalnej treści, a rozszerzają się przez dopisanie do końca wątku, tudzież w pewnym miejscu drzewa (zależy jak to postrzegać)... w wikipedii nie ma zależności typu "references", ale za to można ingerować w dowolny fragment już zapisanej treści... moim zdaniem to dwa bardzo mocno odmienne sposoby organizacji informacji...
Nie trzeba więc przechowywać historii jego edycji i nie musi on być stale gotowy do kolejnej edycji.
Historia edycji to nic innego jak lista artykułów w danym wątku (Tytuł artykułu) na określonej grupie (kategoria artykułu).
no niezupełnie - vide: poprzedni akapit...
Między samymi postami nie ma też żadnych zwrotnych relacji, które baza danych musi obsługiwać.
Relacje są opisane w polach nagłówka: References, Newsgroups itd., każdy artykuł news ma Message-ID (który moze być tak spreparowany by zawierał istotne dla szybkości dostępu informacje), dzięki któremu łatwo można sprawdzić jego istnienie na serwerze, pobrać sam nagłówek lub tekst. Ustalenie relacji i ich prezentacja np. kolorowanie na czerwono linków do nieistniejących haseł to robota dla wikiczytnika.
tak, ale artykuły w wikipedii są _dużo_ bardziej powiązane z innymi artykułami niż posty na usenecie ze sobą...
poza powiązaniem w ramach historii z danym artykułem, także są powiązane ze sobą nawzajem (i to trochę bardziej niż sugerujesz) - np. przy edycji musi być realizowane dodawanie do kategorii, a przypuszczam, że również (nie znam mediawiki od środka, więc strzelam) trzymane są jakieś indeksy powiązań między artykułami, bo nie sądzę, żeby ta informacja była generowana na bieżąco za każdym razem, gdy odczytywany jest artykuł...
poza tym, śledzone są równoczesne edycji - może czegoś nie widzę, ale nie sądzę, że dałoby się wykorzystać nntp w taki sposób, żeby zapobiegać niekorzystnym skutkom konfliktów edycyjnych...
nie wiem również, jak prawidłowo zapewnić w ten sposób funkcjonalność stron dyskusji, ustawienia blokady artykułu, automatyczne skalowanie obrazków po umieszczeniu w artykule odnośnika przez |thumb| ... itp...
[cut]
Poza tym WikiUsenet nie byłby takim chaosem jak obecny Usenet, miałby
[cut]
no dobrze... a jaką miałby przewagę nad obecnym softwarem mediawiki? zakładając, że czas poświęcony na rozwijanie (moim zdaniem nietrafionego) pomysłu wikiusenetu mógłbyś (lub moglibyście - gdybyś zyskał więcej zwolenników tego rozwiązania) przeznaczyć na poprawienie mediawiki tak, żeby nie miało niedogodności, o których wspomniałeś...
Wikipedia jest największą na świecie relacyjną bazą danych dostępną do edycji on-line w czasie rzeczywistym 24 godziny na dobę - razem z zapisaną historią wszystkich artykułów liczy aktualnie ponad 20 milionów rekordów.
Sama grupa pl.sci.psychologia ma z tego co pamiętam ok. 200 tys. postów w archiwum. Na news.tpi.pl jest ponad 30 tys. grup, a na świecie?:)
hmm... ale nadal zachowują się one _zupełnie_ inaczej niż baza danych mediawiki... to, że usenet jest bardziej skalowalny wydaje się oczywistością, zważywszy, że służy zupełnie innemu celowi...
W dodatku tej bazy nie można łatwo podzielić na mniejsze kawałki bo wszystko jest z sobą powiązane.
Dlaczego? Które powiązania są aż tak ważne? Czy aby wyświetlić jakiekolwiek hasło baza musi mieć pod ręką całą wiedzę ludzkości, wszystkie edycje?
nie - ale, jak sam zauważyłeś - musi mieć chociażby dostępne informacje o artykułach powiązanych z danym...
urodzić. Fajnie by było gdyby jednak pomyślano o zmniejszeniu monopolu mediawiki i udostępniono bardziej użyteczne sposoby pozyskiwania danych z bazy przez zewnętrzne niezależne programy.
być może...
jednak, imho, wykorzystanie do tego celu nntp nie wydaje mi się najrozsądniejszym z możliwych pomysłów...
pozdrawiam, blueshade.
jeszcze z ciekawych pytań...
1. nie wiem, jak wyobrażałbyś sobie faktyczną organizację tego wikiusenetu, więc może źle coś rozumiem... czy miałaby to być jedna wielka grupa, czy może każdy artykuł byłby grupą?
te struktury zupełnie do siebie nie przystają, więc nie bardzo wiem, jak ty to chcesz widzieć...
gdzie jest miejsce dla kategorii, namespace'ów, itp...
2. jak miałaby działać wyszukiwarka w takim systemie - domyślam się, że widzisz tu coś, jak google groups... ale w takim razie - czy przypadkiem utrzymywanie takiej wyszukiwarki (która i tak musiałaby mieć jakąś bazę, dzięki której mogłaby indeksować całą treść) nie kosztowałoby porównywalnie, jak w tej chwili utrzymanie sprzętu, na którym działa mediawiki wikipedii? ...
3. jak wyglądałaby autentykacja?
4. jakie naprawdę zalety ma w tym przypadku nntp (zwłaszcza, że istniejącej bazy czytników i tak nie dałoby się używać, ze względu na zmiany w protokole po to, aby dostosować go do wymagań wiki)?
* mniejsze obciążenie serwerów? chyba nie - bo od tego mamy proxy w przypadku www * możliwość pracy offline? też nie bardziej niż teraz... * jakieś inne? jakie?
jeszcze raz pozdrawiam, blueshade.
ps: nie czepiam się złośliwie - tzn. faktycznie słabo widzę zastosowanie nntp do tego celu, ale równocześnie - być może wymyśliłeś coś, czego ja nie jestem w stanie dostrzec i być może błądzę, a ty będziesz w stanie otworzyć mi (i pewnie nie tylko mi) oczy...
gdzie jest miejsce dla kategorii, namespace'ów, itp...
ah sorry...
nie zauważyłem, że napisałeś to...
to w takim razie - jak wyobrażasz sobie dodanie nowych kategorii do danego artkułu? duplikacja wątku w innej grupie??? a przeniesienie artykułu z jednej kategorii do drugiej? a subkategorie? podczepione pod kilka innych kategorii, na różnych poziomach? a strony nie mające podczepionej kategorii?
nadal nie bardzo widzę namespaces, anyway...
ok... idę już spać i nie mnożę już postów na ten sam temat... sorry za 3 posty zamiast jednego, ale jakoś moje myśli na tyle niesfornie się układają, że wciąż mnie nachodziły nowe wątpliwości po wysłaniu poprzedniego listu...
pozdrawiam raz jeszcze, blueshade.
On Sun, 2 Jan 2005, Michał Kręcioch wrote:
owiera w minutę, ale każda zmiana "wisi" kilkanaście. Może przenieś Wikipedię na inne serwery, albo do innych prowadzących, a najlepiej poza warszawkę. Wielu znajomych uważa, że pycha warszawki doprowadziła do tego, że serwery w przysłowiowej Wólce Dolnej są kilkakroć lepsze od tych ze "stolycy".
aha... tyle, że ta teoria nijak się ma do rzeczywistości, jako że serwery wikipedii i innych wikiserwisów, czy to polskich, czy angielskich, czy też w suahili, znajdują się w stanach...
pozdrawiam, blueshade.
Michał Kręcioch napisał(a):
Nie znam technicznego otoczenia Wikipedii, ale ostatnio bierze mnie słynna nerwica ze znakiem jakości. Firefox otwiera stronę Wikipedii 5-10 minut; IE owiera w minutę, ale każda zmiana "wisi" kilkanaście. Może przenieś Wikipedię na inne serwery, albo do innych prowadzących, a najlepiej poza warszawkę. Wielu znajomych uważa, że pycha warszawki doprowadziła do tego, że serwery w przysłowiowej Wólce Dolnej są kilkakroć lepsze od tych ze "stolycy".
Ja jestem z Łodzi, która tradycyjnie też nie lubi "warszawki", ale w tym akurat przypadku to nie wina "warszawki", bo serwer Wikipedii nie jest w Warszawie tylko w USA. Dzięki temu że wszystkie mutacje Wikipedii i inych projektów Wikimedia Foundation są w jednym miejscu tworzy to wszystko całość, w którym poszczególne częście nawzajem się wspierają.
From: "Tomek Polimerek Ganicz" poli@toya.net.pl
Ja jestem z Łodzi, która tradycyjnie też nie lubi "warszawki", ale w tym akurat przypadku to nie wina "warszawki", bo serwer Wikipedii nie jest w Warszawie tylko w USA. Dzięki temu że wszystkie mutacje Wikipedii i inych projektów Wikimedia Foundation są w jednym miejscu tworzy to wszystko całość, w którym poszczególne częście nawzajem się wspierają.
Może artykulik [[Znowu ta Łódź]] :)
Beno (bez urazy)/GEMMA