Funktionsweise des World Wide Web
 
... [Seminar "Verteilte Systeme"]
... [Inhaltsverzeichnis]
... [weiter] ... 
Abschlussbetrachtung
Als Zusammenfassung der vorhergehenden Kapitel soll an dieser Stelle ein 
kompletter Seitenabruf einschließlich aller dazu benötigten Techniken erläutert 
werden. Dazu möchte ein hamburger Hansenet-Kunde von seinem Rechner aus die 
Webseite der öffentlichen Bibliothek in New York http://www.nypl.org/ (New York 
Public Library) abrufen. Der in der folgenden Abbildung zu sehende Datenfluss 
wurde mit VisualRoute (www.visualroute.com), einer grafischen Umsetzung des 
Kommandozeilen-Tools traceroute, mitgeschnitten.
Um die Seite www.nypl.org abzurufen, verbindet sich der Hansenet-Kunde mit dem 
POP seines ISP und bekommt von diesem eine IP zugewiesen. Anschließend gibt der 
Kunde an seinem Rechner (A) die URL http://www.nypl.org/ in seinen Browser ein, 
wodurch er eine DNS-Vorwärtsabfrage an den DNS-Server von Hansenet startet. 
Angenommen die IP der gesuchten Bibliotheksseite ist nicht in dessen Cache 
vorhanden, so wird die DNS-Abfrage an einen Root-Server, z.B. den Ripe-Server in 
London, weitergegeben. Hierarchisch absteigend wird von hier aus die IP der 
gesuchten URL ermittelt und das Ergebnis letztendlich über den DNS-Server des 
ISP an den Hansenet-Kunden weitergegeben. Ausgerüstet mit der gerade erhaltenen 
IP kann Rechner (A) seine Seitenanfrage über das Netz von Hansenet und das 
Backbone-Netz zum DE-CIX in Frankfurt schicken. 
Von dort wandert sie über ein Unterseekabel rüber nach Washington, wo eine 
starke Netzauslastung eine direkte Weitervermittlung nach Austin verhindert. Mit 
Hilfe der Routingprotokolle EGP und BGP wird die Anfrage daraufhin über New York 
nach Austin auf den Server mit der Seite der NYPL umgeleitet. Über das 
Übertragungsprotokoll http und mit dem Anforderungsbefehl GET wird die 
Startseite index.html von http://www.nypl.org/ auf den Rechner (A) übertragen
und in dessen Browser angezeigt.
Das World Wide Web wird ohne Frage in den nächsten Jahren weiter wachsen und 
neue Nutzungsmöglichkeiten und Dienste hervorbringen. Dabei ist anzunehmen, dass 
die bestehenden Konzentrationspunkte wie die vier großen Internetknoten in New 
York, Washington, London und Paris sowie das DE-CIX vorerst weiter bestehen 
werden. Dies ist momentan auf den harten Wettbewerb zwischen den großen Carriern 
zurückzuführen, der auf Kosten der Sicherheit und Redundanz geht.
Auch die geografische Konzentration der 13 Rootserver wird sich wohl nicht so 
schnell ändern, da ein Großteil der Rootserver historisch bedingt in den USA 
steht. Jedoch bilden sich hier bereits die ersten Alternativen heraus. So gibt 
es seit Ende 2002 ein "Open Root Server Network", welches parallel zu den 
offiziellen 13 Rootservern zur Namensauflösung verwendet werden kann.
Bei der Vergabe von IP-Adressen sind ebenfalls Neuerungen zu erwarten, hier wird 
in den nächsten Jahren die derzeitige IP Version 4 durch die neue Version 6 
abgelöst werden, da der Adressraum von IPv4 langsam knapp wird.
Auch bei den Top Level Domains bahnen sich die ersten Engpässe an, weshalb in 
den letzten Jahren immer wieder neue wie biz, .info oder .museum von der ICANN 
genehmigt wurden.
Netzintern sind ebenfalls Änderungen zu bemerken, so wird weiterhin versucht, 
den "Dark Adress Space" zu minimieren und zusätzlich Dokumente über URNs und den 
neuen Dienst URS dauerhaft zu adressieren und auffindbar zu machen.
 
... [Seminar "Verteilte Systeme"]
... [Inhaltsverzeichnis]
... [weiter] ...