Das aktuell zu beobachtende Ergebnis des Suchmaschinen-Spammings durch Wikipedia-Mirrors kann weder personell, institutionell oder sonstwie der Wikipedia angelastet werden.
Die Vermüllung der Suchmaschienen entsteht durch durch das Aufsetzen von Wikipedia-Mirrors anderer Domains. Jeder Mirror will von der Bekanntheit der Wikipedia profitieren. Es wird ein Mirror aufgesetzt der von der Verlinkung zur Wikipedia und der und der Verlinkung/Zitierung zu weiteren Mirrors profitiert
Um die Vermüllung der (jeder) Suchmaschienen durch Wikipedia-Mirrors zu unterbinden sollte seitens der Wikipedia ???? überleg ???? lizenzmäßig eine "robots.txt" gefordert werden, in der Suchmachienen vom Durchsuchen von Wikipedia-Mirrors generell ausgeschlossen werden