16.06.1995

Ein Medium für das 21. Jahrhundert

zurück

Ein Medium für das 21. Jahrhundert

DAS Internet, das derzeit von rund 30 Millionen Computern angezapft wird, wächst mit rasender Geschwindigkeit. Sein Erfolgsgeheimnis: Einst gegründet von amerikanischen Militärs, hat das Netz den Austausch zwischen Computern der verschiedenen Bauarten standardisiert. Für seine privaten Nutzer ist es billig und daher demokratisch, Industrie und Wissenschaft versprechen sich von ihm bald auch die Übertragung mehrdimensionaler Welten in Echtzeit.

Von PHILIPPE QUÉAU *

Das Internet wird oft als Vorläufer der weltweiten Datenautobahnen bezeichnet. Das stimmt zwar, schließlich wächst es exponentiell – sein wichtigste Service, das World Wide Web (WWW), um über 1.700 Prozent jährlich. Doch im Grunde und vor allem ist Internet die Umsetzung einer einfachen genialen Idee, die auch der künftigen technologischen Entwicklung gerade deshalb gewachsen ist, weil sie diese transzendiert. Die Idee besteht darin, mittels einer gemeinsamen Norm alle Computer und Telekommunikationsnetze zusammenzuschließen, so daß irgendein Computer auf der Welt mit irgendeinem anderen kommunizieren kann, egal auf welchem Wege – auch, aber nicht nur über das Telefon.1

Internet entstand vor mehr als zwanzig Jahren bei Forschungen der US-amerikanischen Behörde ARPA (Advanced Research Project Agency), die herausfinden wollte, wie Computerübertragungen gegen einen atomaren Angriff gesichert werden können. Damals kam man auf die Idee, die zu übermittelnden Nachrichten in kleine, voneinander unabhängige Informationspakete aufzuspalten, die über jeden verfügbaren Weg von Computer zu Computer geschickt werden könnten. Fiele ein Teilstück auf dem Weg plötzlich aus, könnten die Datenpakete selbsttätig einen anderen Weg finden. Die Pakete enthalten ihr Bestimmungsziel, das nach einer Internet Protocol (IP) genannten Norm codiert ist.

Besonders attraktiv ist Internet nicht etwa wegen einer besonders originellen Konzeption geworden (andere Einrichtungen haben mittlerweile ihre eigenen Normen für die Kommunikation in Paketen vorgeschlagen), sondern ganz einfach deshalb, weil es anfangs die einzige funktionierende Art war, zwischen Computern verschiedenen Typs Daten auszutauschen, und sich so über die Jahre als De-facto-Standard etablierte. Der Erfolg von Internet beruht darauf, daß es im richtigen Augenblick eine praktische Lösung für ein damals schwieriges Problem bot: den flexiblen weltweiten Austausch von Daten zwischen Computern verschiedener Bauart.

Lange Jahre waren nur amerikanische Militärs, dann auch Universitäten die Nutznießer dieser Austauschnorm. Angesichts des Erfolges von Internet haben später selbst die Netze mit inkompatiblen Normen, wie CompuServe, America On-Line, Prodigy (und kürzlich selbst das französische System Minitel, d.Ü.) Übergänge (Gateways) angeboten, die es ihren jeweiligen Benutzern ermöglichen, sich in der gemeinsamen Sprache des Internet Protocol zu unterhalten.

Mit Internet wurde die Idee einer universellen Norm zum zweiten Mal erfunden. Beim weltweiten Telefonnetz war sie bereits selbstverständlich, dennoch dauerte es seltsamerweise lange, bis sie sich auch in der Kommunikation zwischen Computern durchsetzte.

Noch ist die Internet-Norm nicht perfekt, doch an ihrer Verbesserung wird gearbeitet. Die nächste Version, genannt Internet Protocol Next Generation (IPNG), wird es ermöglichen, den Milliarden Computern, PCs, Decodern und anderen Multimediakonsolen, die von der Industrie in den nächsten Jahrzehnten auf den Markt gebracht werden, eine „jeweils eine eigene Identifikationsnummer zuzuweisen, die aus 128 Bit besteht.

Diese Norm wird von einem wissenschaftlichen Ausschuß beschlossen, dem Internet Architecture Board (IAB), der im Namen eines gemeinnützigen Vereins handelt. Diese Internet Society ist auch in Streitfällen juristisch verantwortlich. Das IAB, dessen Vorsitz gegenwärtig der Franzose Christian Huitema hat, stützt sich auf die Ergebnisse verschiedener Arbeitsgruppen, die im Rahmen der Internet Engineering Task Force tagen und von der Internet Engineering Steering Group koordiniert werden.

Das Finanzierungsprinzip des Internet ist einfach: Jeder zahlt, auf seiner Ebene der Verantwortlichkeit, einen Anteil proportional zu seiner Nutzung der gemeinsam benötigten Ressourcen. Eine Universität oder ein Unternehmen zahlt für den Anschluß an ein regionales Netz, das die lokalen Datenübertragungen zusammenfaßt und sich seinerseits in ein nationales oder internationales Netz einschaltet und dafür die direkten Betriebskosten zahlt (im wesentlichen für spezielle numerische Verbindungen mit anderen internationalen „Knotenpunkten“ von Internet), abhängig von der Menge der übertragenen Daten. Die IP-Norm macht es möglich, die verschiedenen Nachrichten einzeln auf Reisen zu schicken, die Übertragungswege werden en gros angemietet.

Diese Logik, die mit dem Charterverkehr in der Luftfahrt verglichen werden kann, bringt umfangreiche Skalenerträge mit sich, von denen die Endnutzer unmittelbar profitieren, vor allem bei verstärkter Deregulierung. Im allgemeinen trägt der einzelne Nutzer nur die Kosten für seinen örtlichen Internet-provider, der ihm den Anschluß herstellt und die lokalen Telefongebühren, das Herumstromern jedenfalls im eigenen nationalen Netz ist in der Grundgebühr enthalten. Das ist der Hauptgrund, weshalb die klassischen Telekomunikationsunternehmen Anlaß haben, sich bedroht zu fühlen. Der Gewinner ist zweifelsohne die Öffentlichkeit.

Der starke Zustrom von PC-Nutzern macht die Entwicklung von Internet unumkehrbar und schärft die Aufmerksamkeit für seine weltweiten kulturellen, wirtschaftlichen und sozialen Auswirkungen. Internet könnte das neue Medium des 21. Jahrhunderts werden. Es verbindet und überwindet die klassischen Medien und bietet zu stetig sinkenden Kosten eine immer größere Bandbreite von Dienstleistungen an. Im Augenblick wird alle zwei Minuten eine neue Serverstation eingerichtet.

Die wichtigsten Internet-Dienstleistungen sind gegenwärtig die elektronische Post (e-mail), die Diskussionsforen (Usenet News), die Fernübertragung von Dateien (FTP), die Verbindung zu anderen Computern (Telnet), eine weltweite Abfrage von Datenbanken mit Hilfe von Suchprogrammen (Gopher), ein Volltextsuchsystem mit Suchbegriffen (WAIS) und eine ganze Reihe von „intelligenten Hilfen“.

Die jüngste Errungenschaft schließlich ist das vom Europäischen Kernforschungszentrum (Cern) erdachte World Wide Web (WWW), das die Reise im weltweiten Netz von Servern (mit sogenannten Hypertext-Referenzen) ermöglicht. Diese werden einfach angeklickt, um auf den eigenen Computer Texte, Bilder und Töne zu laden oder um sich im Netz fortzubewegen. Über weitere Anwendungen wird bereits nachgedacht, wie die Übertragung von Telefongesprächen im Internet. Dann könnte man, irgendwann in der Zukunft, mit Gesprächspartnern auf der ganzen Welt zum Ortstarif reden.

Den entscheidenden Durchbruch schaffte Internet, weil es als eine Art Straßenkreuzung für jede Art von Dokumenten, Texten, Fotografien, Filmen und Lauten dient, egal ob multimedial oder virtuell, und auch die Möglichkeit bietet, mit diesen zu interagieren. Mit den Hypertextseiten des World Wide Web kann man theoretisch sogar in Echtzeit handeln, zum Beispiel Überwachungskameras und mobile Roboter steuern oder Fabriken aus der Ferne überwachen.

Der nächste Schritt wird sein, das WWW mit 3-D-Bildern und virtuellen Welten zu verbinden.2 Dann können nicht nur einfache Bilder auf den Computer geladen werden, sondern auch „Welten“, das heißt dreidimensionale Modelle, in denen man sich so bewegen kann, wie Flugzeuge in Flugsimulatoren gesteuert werden. Die möglichen Anwendungen sind vielversprechend: von virtuellen Spielen über Heimarbeit bis zum Einkauf am Computer. So wird es möglich sein, durch die Gänge virtueller Supermärkte zu spazieren, die von durchaus realen Waren überborden. Man klickt sie nur an, die Rechnung wird automatisch vom Bankkonto abgebucht.

Auch Künstler haben sich die Idee bereits angeeignet und schaffen virtuelle Ausstellungen oder gar „Reservate“, in denen alle möglichen Arten von „künstlichem Leben“ existieren. Wissenschaftler ihrerseits haben das Netz Very High Speed Backbone Network Service (VBNS) eingerichtet, das fünf amerikanische Superrechner mit einer Kapazität von 155 Megabit pro Sekunde verbindet. Schaltet man sie zusammen, dann ist es denkbar, auch äußerst komplexe Phänomene zu simulieren, wie die weltweite Klimaentwicklung oder die Herstellung neuer pharmazeutischer Moleküle. Kein Zweifel: Die schon bewährten Normen und Übertragungsprotokolle bereiten die zukünftige öffentliche Nutzung der multimedialen Datenbahnen vor. Wer über einen PC und eine Telefonverbindung verfügt, kann sich aber bereits heute in einem Meer von Informationen bewegen, über Zehntausende von Servern, ohne auf die Zukunft mit hyperrealistischer Simulation multidimensionaler Welten in Echtzeit zu warten.

1 Philippe Quéau: „Qui contrôlera la cyber-économie“, Le Monde diplomatique, Februar 1995.

2 Philippe Quéau: „La révolution des images virtuelles“, Le Monde diplomatique, August 1993.

* Forscher am Institut national de l'audiovisuel (INA), Autor von „Virtuels. Vertus et vertiges“, Champ-Vallon-INA, Paris 1993.

Le Monde diplomatique vom 16.06.1995, von Philippe Queau