W dniu 1 lutego 2013 22:21 użytkownik Paweł Zaręba pzareba@googlemail.com napisał:
Może źle się wyraziłem. Chodzi o to, że taka dwutorowość nie jest czymś złym. Hasła z automatu, mają źródła często lepsze niż te pisane z ręki, ale w pewnym sensie są bez ducha. Może ktoś jednak ma jakąś wiarygodną bazę obiektów powtarzalnych, które można by botem wrzucić, tak ze 100 tys :P
W zasadzie takie hasła to nie są hasła encyklopedyczne w normalnym sensie tego słowa. Jest to raczej swojego rodzaju wtórna baza danych. Pobiera się dane z jednej bazy, czy też z paru baz i przekształca to w inną bazę danych, natomiast ogólnie dostępnych danych od tego ani nie przybywa ani nie maleje. Oczywiście takie działanie wymaga zasobów - serwerów, miejsca na dysku, czasu programistów i operatorów botów. Patrząc na to od strony misji projektów Wikimedia, czyli dążenia do udostępnienia sumy ludzkiej wiedzy - wypadałoby zadać pytanie o racjonalność tego rodzaju działań. IMHO takie działanie jest racjonalne jak wynika z tego jakaś wartość dodana. Inaczej szkoda na to czasu.
Np: polskie miejscowości zostały zdaje się zrobione z publicznej części danych GUS, Terrytu i bodaj bazy kodów pocztowych. Wszystkie te bazy były wcześnie dostępne on-line dla każdego. Za wartość dodaną można tu było jednak uznać zwiększoną użyteczność połączonych danych w formie artykułów. W momencie jak te hasła powstały i zaczęły być widoczne w Googlach - starczy jak ktoś wpisał w google nazwę szukanej miejscowości i dostawał te wszystkie dane zgrabnie zebrane w formie artykułu.
IMHO jak ktoś ma jakiś sensowny i użyteczny dla czytelnika pomysł na scalenie/przekształcenie jakichś baz na wolnych licencjach w formę artykułów w Wikipedii - to nie ma w tym nic złego. Gorzej jak się to robi tylko dla podbicia licznika, a te wynikowe artykuły są nikomu do niczego niepotrzebne. Wtedy z pewnością jest to po prostu totalna strata czasu i zasobów.