Internetberatung Sven Przepiorka

Der Begriff Web 2.0

· Publikation · ·

Im Laufe der letzten Jahre hat sich das Internet zu einem wichtigen Bestandteil der modernen Gesellschaft entwickelt. Millionen von Menschen verschicken darüber täglich Emails und nutzen ganz selbstverständlich das World Wide Web (WWW), um sich unkompliziert über aktuelle und bereits vergangene Themen zu informieren.

Als Sir Tim Berners-Lee Anfang der neunziger Jahre die Grundlagen für das WWW entwickelte, war sein Handeln geprägt davon ein Medium zu schaffen, in dem jeder gleichzeitig Konsument und Produzent sein konnte. Die von anderen Medien bekannten Barrieren zwischen den den Anbietern von Inhalten und den Benutzern sollten überwunden werden. Eine zentrale Rolle spielten in seinen Überlegungen die in den digitalen Dokumenten enthaltenen Hyperlinks, die auf andere Dokumente verweisen, gleichgültig ob sie auf demselben Webserver oder einem anderen gespeichert sind. Als Folge daraus erhoffte sich Sir Tim Berners-Lee ein weltweites, engmaschiges und stetig weiterwachsendes Netz aus Webseiten, in denen Informationen jeglicher Art gespeichert werden können.

Jedoch war es zu Beginn des WWW nur wenigen möglich, eigene Informationen dort zu veröffentlichen und somit als Produzent aufzutreten. Im wesentlichen gab es dazu nur zwei Methoden. Die Methode des rudimentären Editierens von Webseiten per Hand und des anschließenden manuellen Speicherns auf dem Server konnte ausschließlich von Computerexperten mit dem nötigen Fachwissen angewendet werden. Weniger manuelles Eingreifen, aber kaum weniger technisches Wissen wurde dagegen beim Einsatz von sogenannten Content-Management-Systemen vorausgesetzt. Diese Systeme erforderten hohe Investitionskosten und waren auf Grund ihrer Komplexität nur schwer für den Anwender erlernbar. Zudem beschränkte auch der damals noch sehr teure Zugang zum Internet die Nutzung des WWW im Sinnes von Sir Tim Berners-Lee.

Die wenigen, die sich einen Auftritt im WWW leisten konnten, waren bereits etablierte Unternehmen wie beispielsweise aus der Medienwelt oder dem produzierenden Gewerbe. Sie nutzen das Web vornehmlich als zusätzlichen Vertriebs- und Marketing-Kanal. Dabei stand jedoch immer die Präsentation und nicht der Inhalt im Mittelpunkt des Auftritts. Die Euphorie der Unternehmen für das WWW wurde jedoch Ende des 20. Jahrhunderts mit dem Platzen der Dotcom-Blase abrupt beendet. Das Web schien gescheitert.

Nach diesem unternehmerischen Schock besann sich das WWW und deren Teilnehmer wieder auf die eigentliche Idee von Sir Tim Berners-Lee zurück. Neue Unternehmen wie Google brachten neue Ansätze in das kommerzielle WWW und lenkten den Fokus weg von der Präsentation hin zum Inhalt. Google schuf beispielsweise mit seiner gleichnamigen Suchmaschine einen neuen Zugang zum Web, dessen Ansatz sich grundlegend von vorherigen Suchmaschinen unterschied. Denn durch die Gewichtung der Ergebnisse danach, wie häufig eine Webseite von anderen verlinkt wird, fand der Suchende in der Regel schneller den gewünschten Inhalt. Damit begann die engere Verwebung des WWW. Der Schwerpunkt des Webs wandelte sich weg von einer Anhäufung kommerzieller Webpräsenzen und hin zu einem Netz von relevanten Informationen und Inhalten. Und so entwickelte es sich schließlich zur ultimativen Informationsquelle. Unterstützt wurde diese Entwicklung durch das immense Absenken der Zugangskosten, so dass immer mehr Menschen das WWW nutzen konnten.

Obwohl die Anzahl der Leser von Webseiten stetig anwuchs, blieb leider die Anzahl der im Internet publizierenden Menschen auf Grund von technischen Hürden begrenzt. Dies änderte sich jedoch Anfang des neuen Jahrhunderts mit dem Auftreten von sogenannter Social Software.

Social Software

Social Software umfasst im engeren Sinne Internetdienste, in denen soziale Netze mit Hilfe von Webseiten geknüpft werden können, wie beispielsweise Kontaktbörsen oder Weblogs. Aber auch Tools zur Zusammenarbeit über das Internet, wie etwa Wikis oder Instant Messenger, lassen sich dem Begriff Social Software zuordnen. Im Mittelpunkt steht dabei stets die Unterstützung von menschlicher Kommunikation, Interaktion und Zusammenarbeit auf Basis sozialer Netzwerke.

Social Software ermöglicht endlich das Web, wie es sich Sir Tim Berners-Lee von Anfang an vorgestellt hat. DieseAussage unterstrich er selbst, als er im Dezember 2005 sein Weblog einweihte und es mit folgenden Worten einleitete:

In 1989 one of the main objectives of the WWW was to be a space for sharing information. It seemed evident that it should be a space in which anyone could be creative, to which anyone could contribute. The first browser was actually a browser/editor, which allowed one to edit any page, and save it back to the web if one had access rights.Strangely enough, the web took off very much as a publishing medium, in which people edited offline. Bizarely, they were prepared to edit the funny angle brackets of HTML source, and didn't demand a what you see is what you get editor. WWW was soon full of lots of interesting stuff, but not a space for communal design, for discource through communal authorship. Now in 2005, we have blogs and wikis, and the fact that they are so popular makes me feel I wasn't crazy to think people needed a creative space.

Als wesentliches Merkmal für das von Social Software geprägte WWW lässt sich feststellen, dass der Benutzer immer stärker in den Vordergrund rückt. Das Web ist nicht länger mehr ein Netz von Informationen sondern ein Netz von Menschen. Getragen wird dies durch die Menschen vor allem daher, da sie durch den Wandel von der Informations- zur Wissensgesellschaft eh ein ausgeprägteres Verständnis und einen bewussteren Umgang mit sozialen Netzwerken entwickelt haben.

Der momentane Wandel des WWW zu einem Netz von Personen, mit samt ihrem Wissen und ihren sozialen Verknüpfungen ist so grundlegend, dass sich dafür das Schlagwort Web 2.0 durchgesetzt hat.

Web 2.0

Der Begriff Web 2.0 entstand im Frühjahr 2004 im Zuge der Vorbereitung einer Konferenz bei einem Brainstorming zwischen Vertretern von O'Reilly Media und MediaLive International. Dabei stellten die Anwesenden fest, dass trotz des Zusammenbruchs der so genannten New Economy das WWW eine immer wichtigere Rolle im täglichen Leben einnahm. Sie kamen daher zu der These, dass dieser Zusammenbruch ein Wendepunkt für das Web darstellte und das somit der Begriff Web 2.0 passend ist. In Folge dessen fand schließlich im Oktober 2004 die erste "O'Reilly Web 2.0"-Konferenz statt. Von dort aus verbreitete sich der Slogan zu der nun feststehenden Bezeichnung für die zweite Generation des Internet-Geschäfts.

Obwohl der Begriff Web 2.0 mittlerweile bei Google zu über 60 Millionen Treffern führt, ist der genaue Inhalte und die Abgrenzung zum Web 1.0 lange Zeit unklar geblieben. Von vielen wurde jener Begriff nur als weiteres Buzzword bei Geschäftsverhandlungen angeführt. Daher veröffentlichte Tim O'Reilly im September 2005 seinen umfassenden Beitrag darüber, welche Überlegungen sie damals beim Brainstorming anstellten und was seiner Meinung nach das Web 2.0 genau auszeichnet.

Ausgangspunkt der Überlegungen war eine tabellarische Gegenüberstellung von Vertretern des alten und neuen Webs, die auszugsweise wie folgt dargestellt werden kann:

Wie viele andere wichtige Konzepte hat auch Web 2.0 keinen harten Grenzen, sondern nach Meinung von Tim O'Reilly lediglich einen zusammenhaltenden inneren Kern. Man kann daher das Web 2.0 als Ansammlung von Prinzipien und Verfahren verstehen, die von einer Art Satellitensystem bestehend aus Webseiten zusammengehalten wird. Die Webseiten beinhalten dabei manche oder gar alle dieser Prinzipien und sind in unterschiedlichen Entfernungen um den Kern herum angeordnet.

Um diese Ansicht hinter dem Begriff Web 2.0 besser visualisieren zu können, entstand im Laufe der Zeit eine umfassende "meme map", die ebenfalls von Tim O'Reilly in seinem Beitrag veröffentlicht wurde.

Das Web 2.0 bezeichnet somit Prinzipien und Verfahren, die sich alle um das Web als Plattform drehen. In Folge dessen kann festgestellt werden, dass sich das Web von einer Ansammlung statischer Webseiten hin zu dynamisch generierten Plattformen verändert, die den Nutzern Zugang zu jeweils unterschiedlichen Daten bieten und die völlig auf die Partizipation der Benutzer ausgerichtet sind. Dabei wird jeder einzelne aus der Masse als entscheidend angesehen. So kann jeder auf den jeweiligen Plattformen seine Daten und Ideen in dem Umfang darstellen, wie er es möchte. Durch die starke Verlinkung unter den Plattform und den einzelnen Benutzers ergibt sich daraus in der Regel ein Kollektiv, das schließlich eine eigene Intelligenz besitzt.

Kollektive Intelligenz

Für das zuvor beschriebene Verhalten wird in der Wissenschaft auch häufig der aus der Emergenztheorie abgeleitete Begriff kollektive Intelligenz benutzt. Er bezeichnet eine wichtige Eigenschaften von komplexen und/oder nichtlinearen Systemen im Sinne der Systemtheorie. Solche Systeme können nämlich Eigenschaften entwickeln, die sich aus der Summe ihrer Einzelkomponenten nicht erklären lassen. In der Gesellschaft findet sich dafür der populären Ausdruck "Das Ganze ist mehr als die Summe seiner Teile". Ein klassisches Beispiel für Emergenz findet man in der Biologie und zwar beim außerordentlichen komplexen System einer Ameisenkolonie. Hier gibt es keine Anführer und zugleich ist eine einzelne Ameise nicht sehr intelligent. Trotzdem zeigt eine Ameisenkolonie eine erstaunliche Intelligenz in der Organisation des Systems. Entscheidend dafür ist die Interaktion zwischen den Ameisen. Eine Ameise reagiert in ihrem Verhalten auf die anderen Ameisen, die ihr begegnen. In der Masse führt dies zu einer kollektiven Inteligenz des Schwarms, was in der Wissenschaft auch treffender als Schwarmintelligenz bezeichnet wird.

Prinzipien

Aus der bereits vorgestellten Abbildung von Tim O'Reilly lassen sich die wesentlichsten Prinzipien des Web 2.0 ableiten, die nun auszugsweise vorgestellt werden sollen.

Daten sind das Kapital // Data as the "Intel Inside"

Im Mittelpunkt aller Web 2.0-Anwendungen steht die jeweilige spezialisierte Datenbank wie beispielsweise Google's Suchindex,Amazon's Produktlisten, Flickr's Bilderverzeichnis oder die Bookmarks bei del.icio.us. Ein Großteil der Firmen versucht für bestimmte Datenarten die einzige Quelle im WWW zu werden und sie versuchen daher sich von der Konkurrenz abzugrenzen,indem sie die Daten um nützliche Zusatzinformationen erweitern. Der Internetbuchhändler Amazon speichert beispielsweise nicht nur Titel, Urheber und eine Kurzbeschreibung zu einem Produkt, sondern fügt auch noch ein Bild und die durch die Benutzer geschriebenen Kritiken bzw. Bewertungen hinzu. Dadurch ist Amazon in den vergangenen Jahren zu einer der zentralen Anlaufstellen für Bücher, CDs und DVDs geworden.

Die Nutzung der Masse // The Long Tail

Ein wichtiges Prinzip hat Chris Anderson, Chefredakteur des Wired Magazins, 2004 in einem Artikel mi dem Begriff The Long Tail geprägt. Es basiert auf dem in der Mathematik bekanntenPrinzip der statistischen Verteilung. Seine Überlegungen gingen dahin, dass es neben einer kleinen Zahl von beliebigenProdukten mit großen Märkten auch eine große Zahl von gering nachgefragten Produkten mit jeweils kleinenNischenmärkten gibt, die aber zusammengenommen den großen mindestens ebenbürtig sind. Auch wenn die Nachfrage nach Nischenprodukten nicht reicht, um sie in den traditionellen Verkauf zu bringen, so ist sie doch vorhanden und kannkommerziell genutzt werden. Ein gutes Beispiel für den Erfolg dieser Überlegungen findet sich bei Google und seinemAdSense-Programm. Der traditionelle Verkauf von Werbebanner konzentrierte sich zu Beginn des WWW meist nur auf die wenigen großen Websites mit mehreren Millionen Seitenaufrufen im Monat. Mit seinem AdSense-Programm geht jedoch Google seit 2003einen anderen Weg. Das Unternehmen ermöglicht jedem Betreiber von Websites, textbasierte und kontext-relevante Werbebanner in die eigene Webseiten einzubinden und dadurch ein wenig Geld zu verdienen. Statt Anzeigen nur auf den größten Websites zu schalten, erscheinen die durch Google vermittelten Anzeigen auf hunderttausenden von Webseiten. Die geringenEinnahmen durch die wenigen Klicks auf einer kleinen Webseite summieren sich bei einer sehr großen Anzahl von kleinenWebseiten schließlich zu einem Betrag, der die Einnahmen aus den Anzeigen großer Websites deutlich übersteigt.

Dienstleistungen anstatt Software // Services, not packaged software

Wegen der Weiterentwicklung des WWWs und dazugehörigen Spezialisierung auf den Umgang mit Daten muss für viele Probleme im Alltag nicht länger mehr eine spezielle Software gekauft werden. Stattdessen kann man auf Angebote aus dem Web zurückgreifen. So war es früher beispielsweise nur mittels einer CD-ROM möglich nach Telefonnummer zu suchen.Inzwischen sucht man einfach bei einem entsprechenden Dienst im WWW nach der gewünschten Telefonnummer. Die Nutzung solcher Dienstleistungen birgt entscheidende Vorteile. Zum einem muss nur dafür bezahlt werden, wenn man sie auch tatsächlich braucht, und zum anderen ist immer gewährleistet, dass immer die aktuellste Version zur Verfügung steht. Für den Kunden entstehen dadurch keine hohen Einstiegskosten. Er kann die laufenden Kosten eng an seinen aktuellen Bedarfausrichten.

Ständige Beta-Phase // The perpetual beta

Ein weiteres Prinzip im Web 2.0 ist, dass die Dienste schon in einem frühen Stadium in die öffentliche Betaphase gehen, um die Anwender in die Entwicklung einzubeziehen. Die Benutzer bekommen dadurch von Beginn an die Möglichkeit, denDienst zu prägen und ihn in eine Richtung zu führen, an den die Entwickler vielleicht ursprünglich gar nicht gedacht haben. Zudem lassen sich so Fehler und sogar Fehlentwicklung früh vermeiden. Der aus der Open-Source-Bewegung stammende Ausspruch "release early, release often" wurde direkt in das Web 2.0übernommen.

Gute Bedienbarkeit // Rich User Experience

In der Geschichte des WWW gab es mit dem Einsatz von Java-Applets, Javascript, DHTML und schließlich Flash mehrere Ansätze, die von Desktop-Anwendungen gewohnte Arbeitsweise auf das Web zu übertragen. Jedoch erreicht keiner denMainstream. Dies gelang erst Google bei der Einführung von GMail und Google Maps, als es auf einen Mix aus verschiedenenTechnologien setzte. Die Kombination aus XHTML, CSS, XML, dem asynchronen Austausch über XMLHttpRequest und Javascript,welche in der Regel mit dem Begriff Ajax zusammengefasst wird, macht es möglich, dass die Web-Anwendungen fast so schnell reagiert wie eine Desktop-Anwendung. Mittlerweile wird Ajax nahezu von allen bekannten Websites des Web 2.0 wie u.a. del.icious oder Flickr genutzt. Darüber hinaus haben sich gerade bei diesen Web 2.0-Anwendungen das Einhalten von Webstandards und reduziertes, übersichtliches Design durchgesetzt, was die Usability der Anwendungen massiv erhöht. Webstandards wieXHTML und CSS sorgen dafür, dass die Websites in den unterschiedlichen Endgeräten stets optimal angezeigt werden. Die reduzierte Gestaltung hilft dagegen dem Benutzer sich schnell auf der Website zurecht zu finden. Dabei ist der populäreAusspruch "Less is more" stets oberstes Anliegen. Der Benutzer soll immer nur die Feature erhalten, die er wirklich zur Erfüllung seiner Aufgaben braucht. Dadurch soll er bewahrt werden, sich in der Anwendung zu verlieren.

APIs und Mashups // The Right to Remix

Web 2.0-Anwendungen stellen in der Regel Schnittstellen zur Verfügung, mit denen andere Anwendungen auf die Daten undFunktionen des Dienstes zugreifen können. Solche Schnittstellen nennt man "application programming interface" oder kurznur API. Mit Hilfe dieser APIs lassen sich wiederum eine Vielzahl von neuen Anwendungen und Nutzungsmöglichkeit enentwickeln. Beispielsweise hat Flickr mit der Veröffentlichung seiner API dafür gesorgt, dass man heute aus fast jedem Fotoprogramm seine Fotos direkt in seinem Account bei Flickr laden kann. Zudem lassen sich aber auch Daten und Funktionen von verschiedenen Diensten miteinander mischen. Das Ergebnis sind dann sogenannte Mashups. Der Service, der derzeit am häufigsten zum Remixen verwendet wird, ist sicherlich Google Maps. Darüber lassen sich von Google lizenzierte Landkarten undSatellitenfotos auf jeder Webseite einbinden und über die API mit individuellen Markierungen versehen. Damit kann plazes zum Beispiel mit Google Maps den aktuellen Standort seiner registrierten Benutzer anzeigen. Flyr ist dagegen ein echtes Mashup, da es die in Flickr mit Geodaten versehenen Bilder nach den gewünschten Begriffen durchsucht und die Ergebnisse direkt in Google Maps anzeigen kann. Eine umfangreiche Liste solcher im Web befindlichen Mashups findet sich unter programmableweb.com.

Vorheriger Beitrag Nächster Beitrag