Am 20.06.2006 um 20:30 schrieb dbenzhuser:
Robert "BuRnEr" Schadek schrieb:
Und zwar dachte ich mir, schon vor einiger zeit, dass man doch die artikelverteilung durch ein p2p netzwerk erledigen könnte. ich hab zwar nicht so die ahnung von p2p netz und so weiter, aber ich hab mir ein paar weiterführende gedanken gemacht.
Ich glaube nicht, dass ein p2p-Ansatz hier helfen kann. p2p ist dort erfolgreich, wo es vor allem um Bandbreitenbeschränkungen geht, bei gleichzeitig relativ einfacher Verwaltung. Es ist also sinnvoll und erfolgreich beim Verteilen großer Dateien, statischer Seiten und dem langfristigen Halten von Daten.
Bei Wikipedia ist es eher anders herum: Die Datenmenge ist sehr viel weniger ein Problem als die Rechenpower, die für Syncronisation, Datenbanken etc. drauf geht. Seiten per p2p mit dem aktuellen Stand anzubieten würde die Sache sogar ausbremsen: Statt einiger weniger Squids müssten tausende Verteilerclients aktuell gehalten werden, wenn du nicht 2 Wochen warten willst, bis sich ein Edit übers ganze Netzwerk verteilt hat braucht man doch wieder einen zentralen Server.
Meine Meinung :)
Ich denke, dass P2P im bisher gebrauchten Sinn hier so gut wie nix nutzt, aus oben genannten Gründen! Meiner Meinung nach, werden hoffentlich in Zukunft ein paar Techniken des Grid zur Anwendung gelangen. Sobald ich eine genauere Idee hab, wie das Aussehen könnte teile ich sie gerne mit. Im Endeffekt wird z.B. das Computing Grid am CERN eine ähnliche Aufgabe wie die Server der Wikipedia erfüllen müssen. Es müssen viele Daten an unterschiedlichen Standorten synchronisiert werden. Forscher (Benutzer) auf der ganzen Welt operieren gleichzeitig mit diesen Daten und haben in Tests deutlich höhere Belastungen des Grid hervorgerufen, als sie jemals in der Wikipedia geherrscht haben.
Just my 2 Cent
Florian