Jakob Voss:
außerdem gibt es neue dumps anscheinend immer seltener.
In einigen Wochen wird es wahrscheinlich tägliche Dumps der Bearbeitungen des letzten Tages geben, so dass man die lokale Datenbank bzw. andere extrahierte Daten täglich aktualisieren kann. Jedenfalls spricht technisch nichts dagegen: So ein täglicher Minidump dauert nur ein paar Minuten, während ein voller Dump viele Stunden (oder sogar mehr als einen Tag) dauert, weshalb man ihn nur in größeren Abständen machen kann.
Außerdem vereinfacht sich das Format der Dumps, und die Dumps werden verglichen mit dem cur/old-Schema auch viel kürzer (etwa Faktor 11 für die deutsche Wikipedia), so dass man den Rechner nicht tagelang laufen lassen muss, um die Dumps herunterzuladen. Auch die Analyse der Daten dürfte dadurch beschleunigt werden (und besonders natürlich durch die täglichen Minidumps).