Blog, News, Webseitenoptimierung

Woher stammt der Begriff Web 2.0

WordPress Entwickler und Webdesigner

Der Begriff Web 2.0 entstand während eines Brainstormings für eine Konferenz, welche der O’Reilly-Verlag und die Firma MediaLive International im Herbst 2004 veranstalteten. Dale Dougherty und Tim O’Reilly kamen dabei auf die Idee, das World Wide Web (WWW) wie eine Software zu betrachten. Dabei erstellten sie eine Liste von Webseiten und Internetbegriffen und ordneten diese dem Begriff Web 1.0 und Web 2.0 zu.

So wurden zum Beispiel DoubleClick, Britannica Online, persönliche Webseiten und Content Management Systeme dem Web 1.0 zugeordnet, Google AdSense, Wikipedia, Blogs und Wikis hingegen dem Web 2.0.

Der O’Reilly Verlag und MediaLive veranstalteten anschließend im Oktober 2004 die Konferenz für neue Techniken und Trends im Web unter dem Namen „Web 2.0 Konferenz“. Der Begriff Web 2.0 etablierte sich somit als Schlagwort für neue Technologien, Trends und Webseiten.

Aber es gibt noch mehr wissenswertes zum Thema Web 2.0, kennst du z.B. den Long Tail-Effekt oder weißt du wie der typische Web 2.0-Benutzer aussieht? Hier erfährst du es …

Anzeige:




Was ist Web 2.0?

Tim Berners-Lee, welcher als Begründer des WWW gilt, äußert sich dazu in einem IBM Developer Works Interview folgendermaßen: „I think Web 2.0 is of course a piece of jargon, nobody even knows what it means“(IBM, 2006). Damit behauptet er, dass keiner genau wissen könne, was Web 2.0 eigentlich bedeutet und in einer gewissen Weise hat er damit auch recht. Befragt man Webentwickler und Web-Gurus, was sie unter Web 2.0 verstehen, so bekommt man jedes Mal eine andere Antwort.

Auch das Unternehmen eResult, welches im Dezember 2007 eine Umfrage (eResult, 2007) zum Thema „Web 2.0- und E-Commerce-Begriffe“ durchführte, kam zu dem Ergebnis, dass sich nur ein Fünftel der 400 befragten Personen etwas unter dem Begriff Web 2.0 vorstellen konnten.

Da Web 2.0 anfangs nur ein Schlagwort war und es auch noch keine Definition dafür gab, veröffentlichte Tim O’Reilly circa ein Jahr nach der Web 2.0-Konferenz am 30.09.2005 einen Artikel mit dem Titel “What is Web 2.0 – Design Patterns and Business Models for the Next Generation of Software“(O’Reilly, 2005). In diesem Artikel beschreibt Tim O’Reilly, was er unter dem Begriff Web 2.0 versteht und zeigt dabei einige Beispiele für Web 2.0 auf.

Im Folgenden findet sich eine Zusammenfassung davon, was Tim O’Reilly als Kernkompetenzen des Web 2.0 sieht:

  • Dienste, keine Paketsoftware, mit kosteneffizienter Skalierbarkeit
  • Kontrolle über einzigartige, schwer nachzubildende Datenquellen, deren Wert proportional zur Nutzungshäufigkeit steigt
  • Vertrauen in Anwender als Mitentwickler
  • Nutzung kollektiver Intelligenz
  • Erreichen des “Long Tail” mittels Bildung von Communities etc.
  • Erstellung von Software über die Grenzen einzelner Geräte hinaus
  • Leichtgewichtige User Interfaces, Entwicklungs- und Geschäftsmodelle

Trotz dieser Zusammenfassung ist es schwer, eine einheitliche Definition für das Web 2.0 zu finden. Aus diesem Grund veröffentliche Tim O’Reilly am 12.10.2006 nochmals einen Artikel, um den Begriff Web 2.0 genauer zu definieren:

Web 2.0 is the business revolution in the computer industry caused by the move to the internet as platform, and an attempt to understand the rules for success on that new platform. Chief among those rules is this: Build applications that harness network effects to get better the more people use them (O’Reilly, 2006).

Grundlegend kann nun gesagt werden, dass das Web 2.0 eine Neuentwicklung des Internets hin zu einer Art Plattform beschreibt und hauptsächlich Webseiten mit Community-Charakter und User Generated Content diesen Titel tragen. Die kollektive Intelligenz, also das vernetzte Wissen der User, welche sich in Web 2.0-Seiten (wie zum Beispiel Wikipedia) widerspiegelt, ist weiters ein Grundbestandteil dieser neuen Entwicklung. Technologien wie RSS, AJAX und Webservices unterstützen dabei diesen Trend und bieten dem User neue Möglichkeiten, das Web 2.0 zu nutzen.

Die Entwicklung zum Web 2.0

Das Web 2.0 hat sich nach dem Platzen der Dotcom-Blase allmählich zu entwickeln begonnen. Höhere Downloadgeschwindigkeiten, dynamische Programmiersprachen und die Entwicklung von interaktiven, desktopähnlichen Webanwendungen wie zum Beispiel Outlook Web Access haben zu dessen Entwicklung positiv beigetragen.

Höhere Downloadgeschwindigkeiten

Es sind nicht nur neue Technologien, die das Web 2.0 auszeichnen. Viele der Technologien, welche derzeit in Web 2.0-Seiten verwendet werden, gibt es schon seit einigen Jahren. So wurde JavaScript schon im Jahr 1995 entwickelt und die erste XML-Spezifikation erschien im Jahr 1998. Ein Grund, warum Web 2.0 jedoch erst in den letzten Jahren seinen Siegeszug begann, liegt sicherlich an der Bandbreitenbeschränkung der 90er Jahre. So war zu Beginn der WWW-Ära ein Internetbenutzer mit einer Geschwindigkeit von 9,6 bzw. 14,4 kbit/s unterwegs. Selbst eine ISDN-Leitung brachte es auf nur 64 bzw. 128 kbit/s, wenn beide Leitungen gekoppelt wurden.

Diese Beschränkung der Downloadgeschwindigkeit und die damals noch hohen Kosten für eine Internetverbindung verhinderten eine effiziente Nutzung und Entwicklung der Online-Dienste. So stellte ein Musik-Download eine große und langwierige Herausforderung dar und ein Video-Download war anfangs praktisch unmöglich. Erst schnellere Bandbreiten und neue Übertragungstechnologien wie DSL und ADSL brachten Ende der 90er Schwung in das Internet. Erst so konnten sich die ersten Vorreiter von Web 2.0 wie Napster, mp3.com, Ofoto u.Ä etablieren.

Statisch versus dynamisch

Am Anfang seiner Entwicklung bestand das WWW lediglich aus statischen Hypertext-Dokumenten, welche untereinander verlinkt waren. Wurde eine Webseite aufgerufen, so lag diese fertig am Webserver und wurde so eins zu eins vom Webserver ausgeliefert und im Webbrowser angezeigt, bis eine andere Webseite aufgerufen wurde. Erst durch die Entwicklung von neuen Skriptsprachen wie zum Beispiel JavaScript und VBScript als clientseitige Skriptsprachen und Perl, PHP und ASP.NET als serverseitige Skriptsprachen konnten dynamische Webseiten generiert werden.

Diese zeichnen sich dadurch aus, dass ihr endgültiger Inhalt und ihre endgültige Form erst im Augenblick des Seitenaufrufes entstehen. So liefert zum Beispiel eine Suchmaschine immer dynamische Webseiten aus, da das Ergebnis der Suchanfrage erst aus dem Datenbestand der Suchmaschine generiert wird. Noch dynamischer werden Webseiten durch die Verwendung der AJAX-Technologie, hier erfolgt die Datenübertragung zusätzlich asynchron.

Vom Desktop zum Webtop

In den letzten Jahren bemerkt man eine immer stärker werdende Verlagerung der Softwareanwendungen vom Desktop in das Internet. So hatte der User früher seine Fotos fix auf der Festplatte gespeichert, heutzutage kann er diese kostenlos in das Internet laden, dort verschlagworten und anderen Usern zugänglich machen. Yahoos Flickr und Googles Picasa Web-Album bieten diese Möglichkeiten, eine Bildverwaltungssoftware ist somit nicht mehr unbedingt nötig. Selbst die Bildbearbeitung kann mittlerweile online geschehen. So bietet beispielsweise nexImage bereits eine auf AJAX basierende Bildbearbeitungssoftware im Web an. Auch Adobe, der Marktführer im Bereich der professionellen Bildbearbeitung, kündigte im September 2007 eine Online-Version seines Flaggschiffes Photoshop an. Diese ist allerdings bis heute noch nicht erschienen.

Selbst das Office Paket von Microsoft bekommt bereits Konkurrenz aus dem Internet. So verzichten derzeit schon einige User auf das kostenpflichtige Microsoft Outlook und verwenden stattdessen das kostenlose Google Mail. Das zusätzliche Installieren eines Virenscanners und Spamfilters ist nicht mehr unbedingt nötig, da Google Mail diese Funktionen bereits integriert hat. Zoho Writer und ajaxWrite bieten ähnliche Funktionen wie Microsoft Word und mit Google Docs können verschiedene Personen gleichzeitig über das Internet an einer Text-Datei arbeiten.

Vorteile von webbasierten Office Anwendungen:

  • Keine Lizenzkosten
  • Mehrsprachige Benutzeroberfläche
  • Kollaboratives Arbeiten (Arbeiten in Gruppen)
  • Vergabe von speziellen Berechtigungen (auch Gruppenberechtigungen)
  • Betriebssystemunabhängigkeit (es wird nur einen Webbrowser benötigt)
  • Standortunabhängigkeit (weltweiter Zugang zu den eigenen Dokumenten)
  • Backup der Dateien übernimmt der Anbieter
  • Keine Updates erforderlich
  • Keine Probleme mit Computerviren

Der Trend geht mittlerweile immer mehr in Richtung Webanwendungen. Eine Ablösung der Desktopanwendungen durch Anwendungen im Internet in naher Zukunft ist dadurch keine reine Utopie mehr, Google macht dies mit den Chromebooks vor. Auch werden Webanwendungen, die AJAX-basiert sind, vom Benutzer immer mehr wie Desktopapplikationen wahrgenommen.

Was zeichnet das Web 2.0 aus?

Dass sich der Begriff Web 2.0 schwer definieren lässt, wurde bereits erwähnt. Trotzdem gibt es einige Entwicklungen, Phänomene und Techniken die besonders im Web 2.0 vorkommen und mit ihm in Verbindung gebracht werden. Im Folgenden werden einige davon vorgestellt.

User Generated Content

Ein Erfolgskonzept von Web 2.0-Seiten ist die extrem starke Einbeziehung des Users. So sieht dies auch O’Reilly (2005) und schreibt, dass Netzwerk-Effekte durch Nutzerbeteiligung der Schlüssel zur Marktdominanz in der Web 2.0-Ära sind und trifft mit dieser Aussage den Nagel auf den Kopf. Webseiten wie Flickr, YouTube oder Wikipedia wären längst nicht so erfolgreich, würden die User nicht den Content dazu beitragen. Auf YouTube werden täglich Tausende neue Videos veröffentlicht und auch das deutschsprachige Wikipedia wächst um etwa 500 Artikel täglich.

Der Grundgedanke des User Generated Content (UGC) ist dabei eigentlich ganz einfach. Der Betreiber eines UGC-Angebots stellt lediglich eine Idee und den notwendigen Speicherplatz zur Verfügung und hält ein funktionierendes Software-System im Web bereit. Den Rest besorgen eifrige Nutzer, die neue Communities rasch mit Leben und Inhalten füllen.

Ganz unproblematisch sind solche Angebote jedoch nicht, es gibt immer wieder Probleme durch Rechtsverletzungen. So klagte das amerikanische Medienunternehmen Viacom, zu dem unter anderem MTV, Dreamworks und Paramount gehören, im März 2007 YouTube auf eine Milliarde US-Dollar Schadensersatz wegen Copyrightverletzungen. Auch das Videoportal Veoh.com, welches von Time Warner finanziert wird, blieb davon nicht verschont und wurde von Universal Music aufgrund von Urheberrechtsverletzung verklagt.

Im deutschen und österreichischen Recht sieht die Gesetzeslage jedoch so aus, dass der Anbieter für den Content nicht strafrechtlich belangt werden kann, sofern er von der Urheberrechtsverletzung nichts wusste und nach Kenntnisnahme der Gesetzesübertretung den Content von seinem Angebot entfernt.

Zanger, Rechtsanwalt und gerichtlich beeideter Sachverständiger in Urheberrechtsfragen, definiert die Sachlage folgendermaßen: An sich haftet der Host Service Provider für die Urheberrechtsverletzung nicht. Sobald er allerdings vom rechtswidrigen Handeln Dritter Kenntnis erlangt, trifft ihn die Verpflichtung zur Löschung der entsprechenden Zugänge, sofern ihm dies technisch möglich ist.

Auch Boßmanns belegt dies in ihrer Dissertation: Es bleibt festzuhalten, dass der Host- Provider im Regelfall nicht, sondern im Ausnahmefall nur dann strafrechtlich zur Verantwortung gezogen werden kann, wenn er einen besonders gefährlichen Dienst, zum Beispiel einen Filesharing-Dienst anbietet. Unterlässt er es in diesem Fall, stichprobenartige Kontrollmaßnahmen vorzunehmen, urheberrechtswidrige Datenübermittlungsvorgänge abzubrechen bzw. die urheberrechtswidrig gespeicherten Daten zu löschen oder den Zugang zu diesen Daten zu sperren, so ist er nach Beihilferegeln zu bestrafen.

UGC-Anbieter sollten somit einerseits versuchen, Urheberrechtsverletzungen im Vorhinein zu unterbieten und, falls dies nicht möglich ist, im Falle einer Urheberrechtsverletzung den Content nach kurzer Prüfung auf Plausibilität der Rechtsverletzung aus dem Angebot entfernen.

Blogs

Blog ist die Abkürzung von Weblog und bezeichnet eine Art Tagebuch oder Journal im Internet. Darin werden die unterschiedlichsten Artikel veröffentlicht, so gibt es private Blogs, wo Personen einfach aus ihrem Leben erzählen, politische Blogs, Urlaubsblogs, Technikblogs und Blogs zu den verschiedensten Themen. Die Beträge werden von sogenannten Bloggern geschrieben. Der Begriff, welcher mittlerweile sogar im Duden vertreten ist, bezeichnet einfach Personen, die ihre Meinung in Blogs veröffentlichen. Das Veröffentlichen ist dabei ziemlich simpel und wird in Form eines vereinfachten Content Management Systems realisiert. User können sich bei ihrem Blog einloggen, Artikel schreiben, bearbeiten und mit Medien, wie zum Beispiel Bilder, Videos oder Audiodateien, versehen. Die veröffentlichten Inhalte werden dabei fast immer in chronologischer Reihenfolge angezeigt.

Für den User gibt es zwei Möglichkeiten, wie er einen eigenen Blog veröffentlichten kann. Entweder er richtet sich einen Account bei einem Blog-Provider ein oder er installiert eine Blog-Software (Blog-Publishing-System) auf einem eigenen Webserver. Mittlerweile gibt es unzählige Blog-Provider, wo sich der User kostenlos einen Blog einrichten kann. Bekannte Blog-Provider sind blogger.com, blogger.de und blog.de. Der Vorteil hierbei ist, dass der User kein technisches Hintergrundwissen benötigt und der erste Blog innerhalb kürzester Zeit erstellt werden kann. Blog-Publishing-System hingegen bieten den Vorteil, dass sie flexibler in der Anwendung sind, so kann zum Beispiel das Layout, anhand von Templates, selber angepasst werden. Der Nachteil ist jedoch, dass der User ein gewisses Know-how mitbringen muss, einen eignen Webspace und einige Zeit für das Einarbeiten benötigt. Die bekanntesten Blog-Publishing-Systeme sind:

Im Web 2.0 genießen Blogs eine weite Verbreitung, so bieten fast alle großen Player wie zum Beispiel Microsoft, Google oder IBM einen Firmen- oder Mitarbeiterblog an.

Typisch für Blogs sind auch die im Web 2.0 verbreiteten Elemente wie RSS-Feeds, Trackbacks, Permalinks, Tag clouds oder die Userbeteiligung in Form von Kommentaren.

Wikis

Im Gegensatz zu Blogs, wo ein User die Artikel veröffentlicht und die anderen User die Beträge nur lesen können, bieten Wikis die Möglichkeit, dass jeder User seinen Beitrag zu einem Artikel leisten kann, indem die Artikel online durch die User geändert werden können. So besteht die Möglichkeit, dass ein Artikel hinsichtlich Qualität und Quantität wächst, da sich mehrere Autoren daran beteiligen.

Das Erfolgskonzept wurde von Ward Cunningham im Jahr 1994 entwickelt. Das Wort Wiki, welches auf hawaiianisch „schnell“ bedeutet, hat sich Cunningham auf Hawaii von den dortigen Shuttlebussen abgeschaut, welche die Bezeichnung Wiki Wiki also „schnell schnell“ oder „sehr schnell“ trugen. Dass dieses Konzept funktioniert, zeigt Wikipedia seit einigen Jahren. Selbst die Qualität und Genauigkeit des Online-Lexikons sind hervorragend, was mehrfach durch Tests bestätigt wurde.

Laut einem aktuellen Test im Auftrag der Zeitschrift Stern schneidet das Mitmach-Lexikon, das von Internetnutzern gestaltet wird, insgesamt weit besser ab als der von professionellen Redakteuren betreute Brockhaus […] Wikipedia erreichte bei dem Test die Durchschnittsnote 1,7 und liegt damit um eine ganze Stufe besser als der Online-Brockhaus, der nur mit 2,7 bewertet wurde.

Möglich wird dies durch die kollektive Intelligenz und die Selbstregulierung der User. Postet ein User absichtlich falsche Informationen, so wird dies durch die große Anzahl an Usern innerhalb kürzester Zeit erkannt und bereinigt. Abb. 3 zeigt, wie schnell solche Änderungen durchgeführt werden, so wurde am 4. Februar 2008 um 00:59 Uhr der Artikel auf Wikipedia über den Musiker Falco mit einer offensichtlichen Falschmeldung erweitert. Schon nach nur einer Minute wurde dieser Vandalismus bemerkt und die vorige Version des Artikels wieder hergestellt.

Dies ist auf Wikipedia kein Einzelfall, sondern zeigt, dass die User innerhalb weniger Minuten auf Falschmeldungen reagieren und die Artikel bereinigen.

Wikis sind wie Blogs im Web 2.0 weit verbreitet. Eine Studie der Firma eResult (2007) hat gezeigt, dass fast die Hälfte der befragten Teilnehmer Wikis im Web benutzen. Auch in Unternehmen werden Wikis gerne im Rahmen des Wissensmanagements eingesetzt. Zurawski unterscheidet dabei zwei Typen, die Unternehmens- bzw. Abteilungswikis und die projektbezogenen Wikis. Beide dienen dazu, das Wissen, welches im Unternehmen anfällt, sei es durch die Abwicklung von Projekten oder den alltäglichen Umgang mit Kunden, schriftlich festzuhalten. Dabei sorgen sie zusätzlich für eine höhere Transparenz im Unternehmen.

Der Long Tail-Effekt

Long Tail ist ein wesentlicher Bestandteil des Web 2.0 im Bereich des Verkaufs von Produkten über das Internet. Viele neue Geschäftsmodelle in der Web 2.0-Ära basieren auf diesem Prinzip und haben sich als lukrativ erwiesen.

Der Begriff wurde von Chris Anderson im Oktober 2004 durch einen Artikel im Wired Magazin geprägt. Er definiert den Begriff folgendermaßen:

The theory of the Long Tail is that our culture and economy is increasingly shifting away from a focus on a relatively small number of “hits” (mainstream products and markets) at the head of the demand curve and toward a huge number of niches in the tail (Anderson, 2006).

Long Tail, was auf Deutsch so viel wie „langer Schwanz“ oder „langer Anhang“ bedeutet, bezeichnet den Effekt, dass für Nischenprodukte ebenso eine hohe Nachfrage besteht wie für populäre Produkte. Anderson verdeutlicht dies grafisch anhand einer Kurve, wo er zwei Arten von Produkten erläutert: die Short Heads, jene Produkte, welche populär sind und oft verkauft werden und die Long Tails, jene Produkte mit geringer Popularität, welche dafür zahlenmäßig überlegen sind. Dabei ist ein Angebot von alternativen Produkten (Long Tails) eine Voraussetzung für den Long Tail Effekt.

In einem normalen Unternehmen müssen Kosten für Lager und Vertrieb in das Verkaufskonzept mit einkalkuliert werden. So wird ein normaler Buchhändler hauptsächlich Bestseller und Bücher mit hoher Nachfrage anbieten, um seinen Lagerbestand so gering wie möglich zu halten. Der Online-Buchhändler Amazon kann hingegen auch Nischenprodukte und Bücher mit geringer Nachfrage in seinen Katalog mit aufnehmen. Eine Bestellung dieser Bücher dauert dafür einige Zeit länger, da Amazon die Bestellung direkt an den Herstellerverlag weiterreicht und der Verlag zuerst das Buch an Amazon schickt, bevor es Amazon an den Kunden weiterleitet. Der Kunde nimmt eine längere Lieferzeit jedoch gerne in Kauf, da er den Titel in einem normalen Buchladen oft nicht bekommt.

Ein weiteres Beispiel wäre der iTunes Store von Apple. Ob Apple 1000-mal dasselbe populäre Lied verkauft oder jeweils ein Lied von 1000 unterschiedlichen Interpreten spielt für den Online-Musikanbieter keine Rolle. Er verdient mit dem Verkauf von Long-Tail Produkten meist noch mehr als beim Verkauf seiner Short Heads.

Der reine Verkauf von Nischenprodukten ist aus ökonomischer Sicht jedoch nicht ratsam. So sind für ein florierendes Geschäft immer noch Bestseller notwendig, um eine gewisse Attraktivität zu erzielen. Diese Bestseller sollen einen Einstiegspunkt in den Online-Store bieten. Durch geschicktes Cross-Marketing wie zum Beispiel Empfehlungssysteme können anschließend die Nischenprodukte angepriesen werden. Der Online-Versandriese Amazon, der dieses Konzept schon vor der Erfindung des Long Tail-Begriffes eingeführt hat, verzeichnet damit einen riesigen Erfolg.

Der Web 2.0-Benutzer

Bei Web 2.0 steht der Benutzer im Mittelpunkt. Er kann sich aktiv am Geschehen beteiligen und seinen Beitrag zur Entwicklung des Internets beitragen, ohne dass er dabei besondere technische Fähigkeiten oder Kenntnisse über Webtechnologien benötigt.

Hier eine kleine Anekdote, wie der ultimative Web 2.0-Benutzer beschrieben werden kann: Der Web 2.0-Benutzer startet seine Reise ins Internet über eine personalisierte Startseite wie iGoogle, er erweitert sein Wissen auf Wikipedia.org und veröffentlicht anschließend seine Meinung in Blogs auf Blogger.de. Er abonniert Webseiten und News als RSS, speichert interessante Webseiten bei del.icio.us und hört seine Lieblingsmusik bei last.fm. Seine E-Mails ruft er über Gmail.com ab und seine To-do-Liste schreibt er online bei Zoho.com. Seine fehlenden Sammlerobjekte kauft er auf eBay.de und die neuesten Bücher auf Amazon.de. Und anstatt den Fernseher einzuschalten, schaut er sich lieber Videos und Nachrichten auf YouTube.com an.

Doch wie sieht der Web 2.0-Benutzer in der Realität aus? Die Firma eResult GmbH hat dazu im Auftrag der Boogie Medien GmbH von Februar bis März 2007 eine Studie (eResult, 2007) durchgeführt, wobei 1.000 Teilnehmer zur Nutzung von Web 2.0-Anwendungen befragt wurden. Die Studie ergab, dass der typische Web 2.0-Benutzer zwischen 28 und 37 Jahren alt und vorwiegend männlich ist. Fast die Hälfte der befragten Teilnehmer nutzen Wikis zur Informationsgewinnung, Foren hingegen nur ein Drittel. Das Einstiegsalter dürfte mittlerweile stark gesunken sein.

Der Web 2.0-Benutzer kann auch anhand seines Verhaltens in aktiv und passiv unterteilt werden. Aktive Web 2.0-Benutzer generieren Content, indem sie sich aktiv im Web beteiligen, zum Beispiel durch Veröffentlichen ihrer Meinungen in Blogs, Wissensweitergabe bei Wikipedia oder Upload von Bildern und Videos bei Flickr und YouTube. Der passive Benutzer hingegen ist reiner Konsument und trägt nicht zur Contenterweiterung bei, er liest dafür die Blogeinträge und schaut sich Bilder und Videos auf den jeweiligen Webseiten an. Auch dieser Benutzer ist wichtig für das Web, denn was würde ein Überangebot von Content bringen, wenn es keine Nachfrage danach gäbe? Beide Benutzer tragen somit zur Entwicklung des Web 2.0 bei, indem sie für ein ausgeglichenes Angebot- und Nachfrageverhältnis sorgen.

Gastautor: Markus Mayer (Wien, Österreich) aus seiner Diplomarbeit.

Schlagworte zu diesem Artikel: , , , ,

Veröffentlicht von WP

Unter dem Namen Gastautor werden sämtliche Artikel geführt die von verschiedenen Gastautoren auf dem Webdesign-Podcast.de veröffentlicht wurden. Autoren die sich regelmäßig am Webdesign-Podcast.de beteiligt haben, sind auf der Team Seite zu finden.

Webseite:

Kommentar verfassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.

Der Benachrichtigungs-Dienst wird von WordPress.com (Automattic Inc., USA ) bereitgestellt. Mit der Anmeldung akzeptierst du die Datenschutzerklärung. Die Abmeldung / Abo-Verwaltung ist jederzeit über diesen Link möglich.