Internet-Geschichte

20 Jahre World Wide Web – ein Weg in 10 Etappen

| Redakteur: Franz Graser

Das World Wide Web hat die Welt näher zusammenrücken lassen. Was als Projekt für wissenschaftliche Dokumentationen begann, wurde zum weltumspannenden Medium.
Das World Wide Web hat die Welt näher zusammenrücken lassen. Was als Projekt für wissenschaftliche Dokumentationen begann, wurde zum weltumspannenden Medium. (Bild: NASA)

Vor genau 20 Jahren schaltete Tim Berners-Lee am Kernforschungszentrum CERN in Genf das World Wide Web für die Weltöffentlichkeit frei. In diesen 20 Jahren erlebte das Web einen Siegeszug ohne Beispiel – und ein Ende ist nicht abzusehen.

Der Schöpfer – Tim Berners-Lee

Tim Berners-Lee, der Schöpfer des World Wide Web.
Tim Berners-Lee, der Schöpfer des World Wide Web. (Bild: Wikimedia Commons/SilvioTanaka)

Der gebürtige Londoner Tim Berners-Lee hatte eigentlich im Sinn, ein System zu schaffen, mit dem sich Forscher und Wissenschaftler weltweit austauschen können. Schon 1980, als er als technischer Dienstleister am Kernforschungszentrum CERN tätig war, schlug er eine Lösung vor, die auf dem Hypertext-Prinzip basierte – verschiedene Texte sollten untereinander durch Hyperlinks verbunden sein.

In großen Lexika gab es ja schon lange Verweise zwischen einzelnen Lexikonartikeln. der Vorteil eines Hyperlinks war jedoch, dass man augenblicklich zum referenzierten Artikel springen konnte, ohne manuell blättern zu müssen. Damals entwickelte er bereits ein Hypertext-System namens Enquire.

Als Berners-Lee 1984 ans CERN zurückkehrte, verfolgte er seine Idee weiter. Der geniale Wurf des Briten war es, die Hypertext-Idee mit der bereits existierenden Technik des Internet zu koppeln – denn das Transmission Control Protocol (TCP) und das Domänen-Namenssystem des Internet existierten bereits.

Was noch fehlte, war ein einfacher Standard, wie man Inhalte für dieses angedachte Informationsnetzwerk aufbereiten konnte. Berners-Lee orientierte sich an der Auszeichnungssprache Standard Generalized Markup Language, die in den sechziger Jahren des vorigen Jahrhunderts entwickelt worden war, und spezifizierte in Anlehnung daran HTML, die Hypertext Markup Language.

Die in HTML definierten Markierungen – sogenannte Tags – bestimmen die Formatierung von Textinhalten und erlauben auch das Einbetten von Multimedia-Inhalten wie Bildern und Sounddateien. Ein spezielles Programm – der sogenannte Browser – übernimmt die Wiedergabe der in HTML formatierten Informationen. Diesen ersten Browser programmierte Berners-Lee auf einer NeXT-Maschine, die zugleich als erster Webserver dienen sollte.

Die erste Website der Welt

Die erste Website der Welt war noch rein textbasiert.
Die erste Website der Welt war noch rein textbasiert. (Bild: VBM-Archiv)

Dieser erste Webserver – und die darauf erstellte erste Website – gingen am Heiligabend 1990 online, allerdings zunächst praktisch unter Ausschluss der Öffentlichkeit.

Berners-Lee entschuldigte sich später dafür, dass die beiden Schrägstriche am Beginn jeder Webadresse (http://) eigentlich unnötig seien. „Damals schien es eine gute Idee zu sein“, witzelte er 2009 in einem Artikel für die Londoner Times. Anlässlich des Jubiläums ist die erste Website der Welt wieder online zugänglich gemacht worden. Sie erläutert das Projekt WWW, listet beteiligte Personen auf und zeigt, welche Software man braucht, um das WWW zu nutzen, und wie diese installiert werden kann. Die Liste der unterstützten Systeme mutet aus heutiger Sicht natürlich museal an.

Heute arbeitet Berners-Lee zusammen mit der britischen Regierung an einem Projekt, das alle nicht-personenbezogenen Daten, über die die britische Regierung verfügt, offen legen soll. Zudem engagiert er sich für die Netz-Neutralität. Im vergangenen Jahr war er einer der Stargäste bei der Eröffnungsfeier der Olympischen Sommerspiele in London.

Der Webserver

Der erste Webserver – eine NeXT-Maschine – ist heute ein Ausstellungsstück im Kernforschungszentrum CERN. Bemerkenswert der handbeschriebene Aufkleber: Do not power down - bitte nicht ausschalten.
Der erste Webserver – eine NeXT-Maschine – ist heute ein Ausstellungsstück im Kernforschungszentrum CERN. Bemerkenswert der handbeschriebene Aufkleber: Do not power down - bitte nicht ausschalten. (Bild: Wikimedia Commons)

Der Computerhersteller NeXT war ein Kind von Steve Jobs. 1985 hatte Jobs Apple nach Meinungsverschiedenheiten mit dem damaligen Vorstandschef John Sculley verlassen und ein neues Unternehmen gegründet. Ein Teil des Startkapitals wurde von dem texanischen Milliardär und späteren Präsidentschaftskandidaten Ross Perot zugeschossen.

NeXT spezialisierte sich auf Highend-Workstations. Die erste Generation der Workstations, die 1988 auf den Markt kam, war würfelförmig und besaß eine Kantenlänge von 30,5 Zentimetern.

Wegen seines hohen Preises blieb dem NeXT der breite Erfolg verwehrt. Allerdings landete ein solcher Rechner, der nach Überzeugung von Steve Jobs seiner Zeit voraus war, im Jahr 1989 auf dem Schreibtisch von Tim Berners-Lee. Das Unix-basierte Betriebssystem und die objektorientierten Entwicklungswerkzeuge waren damals auf dem neuesten Stand der Technik und erleichterten dem Briten die Programmierung der Web-Serversoftware CERN HTTPd und des ersten Browsers.

Hardwareseitig waren die NeXT-Computer nach heutigen Maßstäben spartanisch ausgestattet. Der Zentralprozessor, ein Motorola 68030, war mit gerade 25 Megahertz getaktet, standardmäßig waren die Geräte mit 8 Megabyte Hauptspeicher ausgerüstet. Damals stellte diese Ausstattung allerdings die Crème de la Crème für persönliche Workstations dar.

Der Netscape-Browser

Mitte der neunziger Jahre war der Netscape-Browser der am weitesten verbreitete Schlüssel zum Internet. Der spektakuläre Börsengang des Unternehmens leitete den Dotcom-Boom ein.
Mitte der neunziger Jahre war der Netscape-Browser der am weitesten verbreitete Schlüssel zum Internet. Der spektakuläre Börsengang des Unternehmens leitete den Dotcom-Boom ein. (Bild: Netscape/AOL)

1994 steckte das Web noch in den Kinderschuhen. Aber mit Netscape entstand das erste Unternehmen, das versuchte, mit dem neuen Medium Geld zu verdienen. Gründer waren der damals erst 23-jährige Marc Andreessen, der als Student den Web-Browser NCSA Mosaic entwickelt hatte, und Branchenveteran Jim Clark, der das Unternehmen Silicon Graphics ins Leben gerufen hatte.

Der Browser Mosaic erlaubte es, Bilder und Grafiken nicht in separaten Fenstern, sondern eingebettet in den Text anzuzeigen. Darüber hinaus war er auch für Rechner mit Microsoft-Betriebssystemen verfügbar. Erstmals war es möglich, Web-Inhalte auf vergleichsweise komfortable Weise mit einem mausgesteuerten Interface zu durchforsten.

Der Netscape-Browser baute zwar auf den Erfahrungen von Mosaic auf, enthielt aber keinen Code des Vorgängers. Die erste Version des Netscape-Browsers erblickte im Oktober 1994 das Licht der Öffentlichkeit, allerdings noch unter dem Namen Mosaic Netscape. Erst kurz darauf wurden die Firmierung und auch der Name des Browsers in Netscape geändert.

Der Netscape-Browser war schneller als das Mosaic-Programm. Zudem erhielt die zweite Version des Browsers ein E-Mail-Programm, das Mails, die in HTML formatiert waren, korrekt darstellen konnte. Zudem entwickelte Netscape den Secure Socket Layer für die sichere Datenübertragung im Netz – wichtig für den Handel im Internet – und die Skriptsprache Javascript.

Netscape vertrieb seine Browser kommerziell, darüber hinaus stellte das Unternehmen auch kommerzielle Webserver-Software her. Als das Unternehmen 1995 an die Börse ging, schoss der Wert der Aktie bereits am Ausgabetag von eigentlich vorgesehenen 28 Dollar auf zwischenzeitliche 75 Dollar.

Als die Börse schloss, betrug der Aktienkurs 58,25 Dollar und Netscape war 2,9 Milliarden Dollar wert, obwohl es bis dahin noch keinen Gewinn gemacht hatte. Der spektakuläre Börsengang löste eine wahre Internet-Euphorie an den Aktienmärkten aus, die erst nach der Jahrtausendwende abebbte.

Mit dem großen Erfolg machte sich Netscape aber alsbald den mächtigen Softwarekonzern Microsoft zum Feind. Netscape propagierte Ideen, die man als Vorläufer des Cloud-Computing werten kann. Dies hätte aber Betriebssysteme wie Windows auf Dauer irrelevant gemacht. Microsoft reagierte, indem es den Browser Internet Explorer – der seinerseits auf einer Mosaic-Variante basierte – entwickeln ließ und ab Windows 98 mit dem Betriebssystem bündelte.

Damit war Netscape eine Umsatzquelle entzogen, denn Windows-User hatten nun einen vorinstallierten Browser und brauchten Netscape nicht mehr extra zu kaufen. Dazu kam, dass spätere Versionen des Netscape-Browsers mit langen Entwicklungszeiten und Stabilitätsproblemen zu kämpfen hatten. Dieser sogenannte Browser-Krieg führte dazu, dass Microsofts Internetr Explorer nach wenigen Jahren den Markt für Internet-Zugangsprogramme dominierte.

Das Unternehmen Netscape wurde 1997 von AOL übernommen. Kurz zuvor wurde der Quellcode der Netscape-Browsersoftware freigegeben und an die Mozilla Foundation übergeben. Insofern ist der quelloffene Firefox-Browser, der von Mozilla stammt, ein entfernter Nachfahre des Browser-Pioniers.

AOL-Disketten und -CDs

Für viele Internetnutzer erleichterten Disketten und CDs von America Online die ersten Schritte ins Web. Leider erwiesen sich die per Direktmarketing verschickten und auf Zeitschriften prangenden CDs mit der Zeit zur Plage.
Für viele Internetnutzer erleichterten Disketten und CDs von America Online die ersten Schritte ins Web. Leider erwiesen sich die per Direktmarketing verschickten und auf Zeitschriften prangenden CDs mit der Zeit zur Plage. (Bild: AOL)

Für viele User, die hierzulande in den neunziger Jahren das Internet entdeckten, waren entweder die Telekom-Tochter T-Online oder America Online (AOL) die ersten Provider – unter anderem, weil sie relativ preiswerte Einwahlgebühren für die mehrheitlich mit einem Analogmodem ausgestatteten Privatkunden boten.

Ein Vorteil von AOL war, dass die User einfach nur die Zugangssoftware installieren mussten und dann sofort loslegen konnten. Zudem lockte AOL oft mit Kostenlos-Angeboten, bei denen die Neukunden eine Zeitlang gratis (abgesehen von den Telefon-Verbindungsgebühren) surfen konnten.

Um Neukunden zu gewinnen, warf AOL deshalb die CD-Presse an. Passte die erste Version der Zugangssoftware noch auf eine Diskette, so war für spätere Varianten schon die CD als Speichermedium notwendig. Ende der neunziger Jahre prangten auf fast allen Computerzeitschriften AOL-Zugangs-CDs, zudem erhielten Bestandkunden die aktuelle Softwareversion auf CD zugeschickt. Viele AOL-CDs endeten deshalb als Hightech-Bierdeckel, als Zifferblatt für CD-Uhren oder wanderten einfach in den Müll.

Dem Vernehmen nach trug zu dieser Zeit jede zweite weltweit produzierte CD das AOL-Logo. Initiativen zur Müllvermeidung gründeten sich, die die Ressourcenverschwendung des amerikanischen Konzerns anprangerten. Insgesamt soll AOL rund 300 Millionen US-Dollar in diese Form des Marketings gesteckt haben.

Die Webcam und die Kaffeemaschine

Die berühmte Kaffeemaschine im Trojan Room der Universität Cambridge
Die berühmte Kaffeemaschine im Trojan Room der Universität Cambridge (Bild: Wikimedia Commons)

High Tech meets Low Tech – dieses Motto kommt einem in den Sinn, wenn man sich überlegt, wofür die erste Webcam der Geschichte eingesetzt wurde. Da Softwareentwicklern und Informatikstudenten ein immenser Kaffeedurst nachgesagt wird – Softwareentwicklung wird ja oft als ein Prozess definiert, der Kaffee in Codezeilen verwandelt – wurde die Kaffeemaschine vor den Rechnerlabors der University of Cambridge natürlich häufig frequentiert.

Mancher Stundent oder Dozent, dem der Sinn nach einer Tasse Kaffee stand, musste jedoch unverrichteter Dinge wieder abziehen, wenn kein Kaffee mehr in der Kanne war. Um derlei Frust zu vermeiden, überlegte man sich 1991 eine Lösung mit hohem Nerd-Appeal. Eine Videokamera wurde auf die Kaffeemaschine gerichtet und mit einem Framegrabber gekoppelt, der Bildsignale digitalisieren konnte. Hierfür wurde ein Acorn-Archimedes-Rechner herangezogen. Ein Server- und ein Client-Programm für die Unix-basierte Rechner mit X-Window-Oberflächen ermöglichte es den Usern im lokalen Netzwerk, per Mausklick den aktuellen Füllstand der Kaffeemaschine einzusehen.

Ein paar Jahre später setzte sich das World Wide Web durch, und die Webbrowser boten die Möglichkeit, nicht nur Text, sondern auch Bildinformationen darzustellen. Deshalb wurde das Kamerasystem 1993 an das World Wide Web angeschlossen. Auf diese Weise hatte jeder Web-Nutzer die Möglichkeit, zu jeder Tages- und Nachtzeit die Kaffeemaschine zu beobachten. Die Bildqualität entsprach zwar in etwa der der ersten Mondlandung, aber von nun an wussten Nerds in aller Welt, wieviel Kaffee sich noch in der Maschibne befand.

Als die Informatik-Fakultät 2001 in neue Gebäude umzog, wurde diese erste Webcam der Geschichte endgültig abgeschaltet. Das Online-Magazin Spiegel Online ersteigerte in einer Internet-Auktion die Kaffeemaschine. Sie kann heute noch in der Hamburger Redaktion von Spiegel Online beobachtet werden.

Java

James Gosling gilt als Vater der Programmiersprache Java.
James Gosling gilt als Vater der Programmiersprache Java. (Bild: Sun Microsystems/Oracle)

Die frühen Websites waren zwar faszinierend, sie hatten aber einen entscheidenden Nachteil: Sie waren statisch. Interaktivität war nur durch das Anklicken von Hyperlinks möglich, die auf andere Seiten verwiesen.

Das änderte sich erst durch Techniken wie Javascript oder PHP, die es erlaubten, entweder auf der Client- oder der Serverseite Programmlogik in die Websites zu integrieren. Mitte der neunziger Jahre kam die Programmiersprache Java hinzu, mit der es möglich war, kleine Programme – sogenannte Applets – in Websites einzubetten.

Java war ursprünglich als Embedded-Programmiersprache für TV-Set-Top-Boxen entwickelt worden. Das aufkommende Internet erweiterte jedoch den Anwendungsbereich der Technik ganz entscheidend.

Da Java-Programme in einer virtuellen Maschine (VM) ausgeführt werden und nur diese VM speziell für die Zielplattform geschrieben werden muss, sind Java-Applikationen prinzipiell auf jeder Hardware und jedem Betriebssystem lauffähig. Das bedeutet, dass auch die eingebetteten Applet-Programme nur einmal geschrieben und kompiliert werden mussten und somit weltweit genutzt werden konnten.

Als Sun Microsystems die nach der Kaffeesorte Java benannte Softwareplattform 1995 veröffentlichte, führte der Internet-Boom deshalb auch schnell zu einem Java-Hype. Daran änderten die Nachteile der Applet-Technik zunächst nichts: Die Java-Programme mussten erst einmal über das Netz geladen werden, was bei schmalbandigen Verbindungen durchaus einige Minuten dauern konnte. Zudem waren die frühen Virtual Machines noch nicht sehr leistungsfähig, so dass Java-Applets im Ruf standen, ein zähes Vergnügen zu sein.

All das tat der Java-Begeisterung zunächst keinen Abbruch. Sun veröffentlichte relativ rasch die stark verbesserte Java-2-Plattform, die auch die Entwicklung unternehmensweiter Webanwendungen mit Java unterstützte. Allerdings erwies sich die Java 2 Enterprise Edition als reichlich komplexe Architektur, die als zentrale Komponente einen sogenannten Applikationsserver vorsah. Dieser beherbergte die Geschäftslogik und führte quasi Datenbankinhalte und deren Darstellung im Web zusammen.

Zwar wurden viele Web-Applikationen auf Basis dieser Architektur erstellt, doch die komplizierte Struktur und die mitunter problematische Wartbarkeit führen dazu, dass sich viele mittelständische Betriebe nach anderen Lösungen umsahen.

Skriptsprachen wie PHP, die sich einfach in den HTML-Code einer Website integrieren ließen, boten hier viele Vorteile. Deshalb basieren heute viele Content-Management-Systeme oder E-Commerce-Lösungen auf PHP und anderen Skriptsprachen. Dagegen ist Java gewissermaßen zum Ausgangspunkt zurückgekehrt, denn die meisten Applikationen für das Smartphone-Betriebssystem Android sind in Java geschrieben.

Musiktausch mit Napster

Shawn Fanning, der Entwickler der Musiktauschbörse Napster.
Shawn Fanning, der Entwickler der Musiktauschbörse Napster. (Bild: Wikimedia Commons)

Um die Jahrtausendwende war neben E-Mail und dem Browsen im Web der Musiktausch mit Napster eine der Killeranwendungen des Web. Napster war 1999 von den Brüdern Shawn und John Fanning entwickelt worden und verbreitete sich im Internet wie ein Lauffeuer.

Die Anwendung erlaubte es, Listen mit im digitalen MP3-Format gespeicherten Audiodateien ins Netz zu stellen und im Peer-to-Peer-Sharing-Verfahren herunterzuladen. Wer sich bei Napster registrierte – was zwischen 1999 und 2001 rund 80 Millionen Menschen taten –, hatte Zugriff auf eine gewaltige Musikbibliothek und konnte sich abgesehen von den Verbindungsgebühren praktisch kostenlos bedienen. Ein Schuldbewusstsein aufgrund des Versoßes gegen Urheberrechte hatten zudem nur die wenigsten User.

Die Musikindustrie wurde durch Zufälle auf den Musiktauschdienst aufmerksam. Einige Songs kursierten im Napster-Netz bereits vor der offiziellen Veröffentlichung. Das führte dazu, dass US-Radiostationen Lieder spielten, die es offiziell noch gar nicht zu kaufen gab. Im Jahr 2000 klagte zum Beispiel die Band Metallica gegen die Tauschbörse, weil ihr Song I Disappear auf diese Weise vorzeitig in Umlauf gekommen war und die Musikmanager erschrocken feststellten, dass praktisch alle Titel der Band auf Napster kostenlos verfügbar waren.

Der Klagewelle, die nun auf die Tauschbörse zurollte, waren die Gründer nicht gewachsen. Mitte 2001 wurden die Napster-Server abgeschaltet. Damit war die Episode als Tauschbörse vorbei. Der Name Napster lebt zwar als kommerzeller Online-Musikservice weiter. Die einstige Bedeutung wurde aber nicht wieder erreicht.

In den Fußspuren von Napster folgten weitere Musiktauschnetzwerke von zum Teil zweifelhafter Legalität. So war zum Beispiel der Filesharing-Service Kazaa in Deutschland eine Zeitlang recht populär. Die offizielle Client-Software von Kazaa war jedoch auch als Adware-Schleuder berüchtigt.

Google

Dieses Google-Doodle lehnt sich an den Londoner U-Bahn-Streckenplan an.
Dieses Google-Doodle lehnt sich an den Londoner U-Bahn-Streckenplan an. (Bild: Google)

Google gilt heute als Synonym für die Suche im World Wide Web. Das war nicht immer so – wer sich seit Mitte der neunziger Jahre im Netz bewegt, hat seitdem eine ganze Reihe von Web-Verzeichnissen und Suchmaschinen ausprobiert.

Zu den Pionieren, die es heute noch gibt, gehört Yahoo!, das versucht, einen Teil seiner einstige Bedeutung wieder zu erlangen. Daneben gab es die Suchmaschine Altavista, die von Digital Equipment entwickelt worden war, aber auch Excite, Lycos und HotBot sowie Fireball im deutschen Sprachraum waren eine Zeitlang populär.

Seit 1998 ist jedoch Google online, das innerhalb vergleichsweise kurzer Zeit zum Spitzenreiter unter den Suchmaschinen aufstieg und diesen Rang bisher nicht mehr hergegeben hat.

Google setzt autonome Suchprogramme, sogenannte Webcrawler ein, die den Internetlinks folgen und die gefundenen Seiten indexieren. Die Kalifornier sortieren die gefundenen Ergebnisse nach Relevanzkriterien. Dafür wurde ein Messwert, der sogenannte PageRank, entwickelt. Je nachdem wie viele Links zu einer bestimmten Seite verweisen, desto höher wird die Relevanz bewertet. Darüber hinaus wertet Google das Vorkommen von Schlüsselwörtern in Überschriften aus.

Der ursprüngliche PageRank-Algorithmus wurde immer weiter verfeinert, so dass heute angeblich mehr als 200 Faktoren in die Bewertung einfließen, so etwa der Ort, an dem der User seine Suchanfrage eingibt, oder auch, ob er mit einem PC oder einem mobilen Endgerät arbeitet.

Während Google in der westlichen Welt die dominierende Suchmaschine ist – woran sich in absehbarer Zeit nichts ändern dürfte –, gibt es in bestimmten Weltregionen populäre Konkurrenten, so etwa Baidu in China, Naver in Südkorea oder Yandex in Russland.

Der Name „Google“ leitet sich übrigens von der Bezeichnung „Googol“ für eine Zahl ab, die aus einer 1 mit 100 Nullen besteht. Der neunjährige Neffe des amerikanischen Mathematikers Edward Kasner hatte die Bezeichnung aus Spaß erfunden, dieser popularisierte den Namen später in seinen wissenschaftlichen Veröffentlichungen.

Die Google-Gründer wählten die Bezeichnung, um damit die gewaltigen Möglichkeiten des Internets auszudrücken. Als sie die Marke anmeldeten, unterlief ihnen jedoch ein Schreibfehler und aus „Googol“ wurde „Google“.

boo.com und das Ende des Dotcom-Booms

Der weibliche Avatar „Miss Boo“ sollte die Kunden auf ihrer Shopping-Tour auf der Website boo.com begleiten.
Der weibliche Avatar „Miss Boo“ sollte die Kunden auf ihrer Shopping-Tour auf der Website boo.com begleiten. (Bild: Boo.com)

In den Anfängen des Internetzeitalters stellten vor allem Geschäftsleute immer wieder dieselbe Frage: „Wie kann man im Netz Geld verdienen?“ Lange nämlich galt das Web als Spielwiese für Nerds, die dort abseitiges Wissen veröffentlichten. Aber abgesehen von den Firmen, die Infrastruktur-Software für das Netz herstellten, schien der kommerzielle Nutzen des Webs zweifelhaft zu sein.

Internethändler wie Amazon.com bewiesen zwar früh, dass sich das Geschäftsmodell des Versandhandels relativ leicht auf das Web übertragen ließ, aber Amazon brauchte fast sieben Jahre, bis es den ersten Gewinn verbuchen konnte. Außerdem verlegte sich Amazon auf Bücher – also eine Warengruppe, die nicht verderben kann, keinen Moden unterliegt und leicht transportierbar ist.

Riskanter war da schon der Online-Modeshop boo.com, der 1999 von einem schwedischen Unternehmerpaar gegründet wurde. Boo.com spezialisierte sich auf teure Markenkleidung, unterhielt ein repräsentatives Hauptquartier in London und wurde schon vor dem Verkauf des ersten Kleidungsstücks als eine der coolsten Firmen Europas gefeiert.

Boo.com machte jedoch so viele Fehler, dass es als exemplarisches Beispiel dafür dienen kann, wie man ein Internet-Startup besser nicht aufzieht. Ein Problem war zum Beispiel die mangelnde Benutzerfreundlichkeit der Website. Die Datenmengen, die zu laden waren, bevor man die Eingangsseite überhaupt sehen konnte, betrugen mehrere hundert Kilobyte. In einer Zeit, in der die meisten User noch mit Telefonmodems ins Internet gingen, war dies unzumutbar.

Außerdem machte die Seite sehr viel Gebrauch von Techniken wie Javascript und Flash. Damit sollte eine dreidimensionale Darstellung eines Kleidungsstücks erreicht werden, was aber die technischen Möglichkeiten vieler PCs der damaligen Zeit überforderte.

Dazu kamen organisatorische Probleme, da die Zahl der Mitarbeiter innerhalb weniger Monate von rund 40 auf das Zehnfache anstieg. Auch Gerüchte über extravagante Parties machten die Runde, die die Boo-Gründer aber in Interviews zurückwiesen.

Innerhalb von 18 Monaten wurden 135 Millionen Dollar an Wagniskapital durchgebracht, so dass boo.com im Mai 2000 schließen musste. Die Boo-Pleite löste das Ende des Dotcom-Booms aus, da von da an die Skepsis gegenüber Internet-Startups und der Tragfähigkeit ihrer Geschäftsmodelle zunahm.

Soziale Medien – Twitter läuft Nachrichtensendern den Rang ab

Am 15. Januar 2009 wasserte eine A320 der US Airways im Hudson River in New York. Das „Miracle on the Hudson“ verbreitete sich über Twitter wie ein Lauffeuer.
Am 15. Januar 2009 wasserte eine A320 der US Airways im Hudson River in New York. Das „Miracle on the Hudson“ verbreitete sich über Twitter wie ein Lauffeuer. (Bild: Wikimedia Commons)

Der Mikroblog-Dienst Twitter ist der kleine Bruder der Blogs, die in dem ersten Jahrzehnt des 21. Jahrhunderts populär wurden. Twitter erlaubt es seinen Nutzern seit 2006, kurze Nachrichten von maximal 140 Zeichen Länge zu verbreiten. Wer einem User folgt, kann dessen Nachrichten mitlesen und damit an seinem Leben teilhaben. Zudem ist möglich, diese Kurznachrichten auch mit Bildern zu verknüpfen.

Die meisten Twitter-Nachrichten haben mit Banalitäten zu tun. Manchmal aber verändern sie auch die Welt, wie sich am 15. Januar 2009 zeigte. Wenige Tage vor der Amtseinführung von US-Präsident Barack Obama musste ein Airbus A320 der Fluggesellschaft US Airways im Hudson River notwassern.

Glücklicherweise führte Flugkapitän Chesley Sullenberger das Manöver so präzise aus, dass das Flugzeug beim Aufschlag auf das Wasser nicht auseinanderbrach. Zudem war das Wasser des Hudson River an diesem Wintertag recht ruhig, so dass das gewasserte Flugzeug nicht umkippte.

Daher konnten alle Insassen des Fluges gerettet werden. Die New Yorker, die an diesem Tag unterwegs waren, verbreiteten die Nachricht über die Twitter-Clients ihrer Smartphones, so dass die Twitter-User über die Sensation bereits informiert waren, bevor die Nachrichtensender darüber berichten konnten.

Da sich Twitter-Nachrichten über einen Schneeballeffekt fortpflanzen – ein User schreibt die Nachricht, die seine Follower (also Mitleser) dann wiederum als Retweet an ihre Mitleser weiterreichen können und so weiter – kann so eine Meldung innerhalb kürzester Zeit Millionen von Menschen erreichen. Dieser Mechanismus trägt dazu bei, dass in sozialen Medien Nachrichten ein großes Publikum ansprechen – und zwar ganz ohne Mithilfe der großen Nachrichtenmedien. Ein Nachteil ist jedoch, dass sich über Twitter oder Facebook auch ungeprüfte Gerüchte sehr schnell verbreiten können und wichtige Details einer Meldung sehr oft auf der Strecke bleiben.

Kommentare werden geladen....

Kommentar zu diesem Artikel

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

 

Copyright © 2017 - Vogel Business Media