Am 20.06.2006 um 20:30 schrieb dbenzhuser:
Robert "BuRnEr" Schadek schrieb:
Und zwar dachte ich mir, schon vor einiger zeit,
dass man doch die
artikelverteilung durch ein p2p netzwerk erledigen könnte. ich hab
zwar
nicht so die ahnung von p2p netz und so weiter, aber ich hab mir ein
paar weiterführende gedanken gemacht.
Ich glaube nicht, dass ein p2p-Ansatz hier helfen kann. p2p ist dort
erfolgreich, wo es vor allem um Bandbreitenbeschränkungen geht, bei
gleichzeitig relativ einfacher Verwaltung. Es ist also sinnvoll und
erfolgreich beim Verteilen großer Dateien, statischer Seiten und dem
langfristigen Halten von Daten.
Bei Wikipedia ist es eher anders herum: Die Datenmenge ist sehr viel
weniger ein Problem als die Rechenpower, die für Syncronisation,
Datenbanken etc. drauf geht.
Seiten per p2p mit dem aktuellen Stand anzubieten würde die Sache
sogar
ausbremsen: Statt einiger weniger Squids müssten tausende
Verteilerclients aktuell gehalten werden, wenn du nicht 2 Wochen
warten
willst, bis sich ein Edit übers ganze Netzwerk verteilt hat braucht
man
doch wieder einen zentralen Server.
Meine Meinung :)
Ich denke, dass P2P im bisher gebrauchten Sinn hier so gut wie nix
nutzt, aus oben genannten Gründen! Meiner Meinung nach, werden
hoffentlich in Zukunft ein paar Techniken des Grid zur Anwendung
gelangen. Sobald ich eine genauere Idee hab, wie das Aussehen könnte
teile ich sie gerne mit. Im Endeffekt wird z.B. das Computing Grid am
CERN eine ähnliche Aufgabe wie die Server der Wikipedia erfüllen
müssen. Es müssen viele Daten an unterschiedlichen Standorten
synchronisiert werden. Forscher (Benutzer) auf der ganzen Welt
operieren gleichzeitig mit diesen Daten und haben in Tests deutlich
höhere Belastungen des Grid hervorgerufen, als sie jemals in der
Wikipedia geherrscht haben.
Just my 2 Cent
Florian