Google vergisst nicht, es ist jetzt nur auf einem Auge blind

Die Berichterstattung über das EuGH-Urteil “Recht auf Vergessen(werden)” gegen Google ist ja sehr umfangreich gewesen, eine kurze Suche mit Talkwalker nach den Stichwort ergibt zurzeit über 2.500 Treffer in den letzten sieben Tagen alleine in News, Blogs und Foren. Bei den allermeisten von mir gelesenen Artikeln irritiert mich allerdings die Kernbotschaft, die dort vermittelt wird: Google vergisst jetzt, Links müssen auf Anfrage gelöscht werden, kritische Artikel können jetzt unterdrückt werden. Das stimmt nicht. Google löscht keine Links – es zeigt sie nur bei bestimmten Suchen nicht mehr an. Der Kern des EuGH-Urteils war, dass Google bei der Suche nach Namen von Personen mit der Ausgabe der üblichen Ergebnisliste ein Persönlichkeitsprofil erstellt, welches das in der europäische Datenschutzrichtlinie verankerte Recht auf Privatsphäre verletzt. Nur in diesem Fall kann ein Betroffener Löschung des Links aus der Suchergebnisliste verlangen – in der Kurzform nachzulesen z.B. bei RA Thomas Stadtler. Wenn also Max Mustermann sich in grauer Vorzeit einmal daneben benommen hat und ein alter Artikel über seine Schützenfestscherze noch immer über die Google-Suche nach “Max Mustermann” in der digitalen Lokalzeitung zu finden ist, dann kann Max Mustermann eine Löschung des Links aus der Suchergebnisliste verlangen. Der Link zum Artikel bleibt aber weiterhin im Google-Index, er darf nur nicht bei der Suche nach “Max Mustermann” ausgeworfen werden. Suchen nach “Schützenfest 2000″ oder “Die besten Scherze der Schützen” können weiterhin auf den Artikel verweisen – denn hier werden keine Persönlichkeitsprofile erstellt. Kritische Artikel werden also weiterhin bei Google gefunden, man muss nur andere Suchanfragen stellen. Das hört sich zunächst einfach an, hat allerdings einen Haken: Wenn ich nicht weiß, wonach ich suchen muss, finde ich nur schwer die entsprechenden Artikel. Hier ist in Zukunft also etwas mehr Einsatz und Kreativität gefragt. Ich bin mir zudem sicher, dass uns das Thema in den nächsten Jahren noch häufiger beschäftigen wird. Denn es wird genügend Leute geben, die das Urteil nutzen wollen, um bei Google ein makelloses Trefferbild bei der Suche nach ihrem Namen durchzusetzen. Inwieweit das umgesetzt werden muss, werden die Gerichte beurteilen. Ähnlich strittig dürften die betreffenden Suchanfragen selbst sein: Werden nur Anfragen nach “Max Mustermann” vom Urteil erfasst? Oder reichen auch schon “Mustermann” oder “M. Mustermann” als Suchbegriffe? Es ist also noch vieles im Fluss, auch wenn die aktuelle Aufregung in den Online-Blättern etwas anderes vermittelt.  

Social Media führt: Analyse der Meldungen beim Flugzeug-Crash in San Francisco

Nicht von uns (mediamonitoring), aber dennoch sehr lesenswert: Die auf Airlines spezialisierte Beratung SimpliFlying hat die Social Media-Karriere des Flugzeug-Crashs in San Francisco (SFO) detailliert analysiert. Dabei zeigt sich, dass die Social Media Meldungen – insbesondere Twitter – an Schnelligkeit nicht zu überbieten sind und die ersten Twitterer sehr schnell und intensiv von den “traditionellen” Berichterstattern kontaktiert und eingebunden werden. Im weiteren Verlauf der Meldungen beweist sich der alte Ratschlag: Man sollte eine Social Media Vernetzung und Monitoring nicht erst aufbauen, wenn man es braucht – denn dann ist es zu spät. Gerade in der Krisenkommunikation sind die Social Media Kanäle Gold Wert, um eigene Informationen schnell in die Öffentlichkeit zu bringen. Einfach mal durch die Folien klicken. Es lohnt sich!
Asiana Flight 214 crash in SFO – Crises Management Case Study and Analysis from SimpliFlying

Mary Meekers Internet Trends: Mal wieder wegweisend im wahrsten Sinne des Wortes

Mary Meeker von Kleiner Perkins Caufield Byers hat auf der D11 Conference die neue Version ihrer mittlerweile berühmten Internet Trends vorgestellt. Wer die Präsentationen nicht kennt: Es handelt sich dabei um die Zusammenstellung von Daten und Fakten rund um die Nutzung des Internets, intelligent verknüpft und interpretiert. Meist ergeben sich die spannenden Schlüsse und Trends daraus, dass alte und neue Trends oder Märkte verglichen werden und damit Aussagen über wahrscheinliche zukünftige Entwicklungen getroffen werden. Die aus meiner Sicht interesantesten Aussagen sind diesmal:
  • Die anteiligen Werbeerlöse sind bei Print zurzeit noch höher als die anteilige Nutzung, bei mobile ist es umgekehrt: Es ist zu erwarten, dass Print weiter verliert und mobile deutlich hinzugewinnt.
  • Sharing von Informationen hat erst begonnen. Fotos und Videos waren erst der Anfang, jetzt folgen Sprache und Daten.
  • Die Nutzer anderer Länder teilen sehr viel mehr Inhalte als wir Deutschen. Darum werden Angebote rund um das Sharing weltweit geradezu explodieren.
  • Mobile Nutzung boomt weiter und hat teilweilse bereits die Desktop-Nutzung überholt.
  • Webangebote müssen daher zwingend mobiles Geschäft aufbauen, wollen sie nicht verlieren.
  • Nach nur drei Jahren werden schon genauso viele Tablets gekauft wie Desktops und Notebooks.
  • Wearable Computing ist das “next big thing” und wird wahrscheinlich in den Stückzahlen Smartphones und Tablets deutlich übertreffen.
  • Mittlerweile setzt China viele Trends. Und hier boomt der Einsatz von QR-Codes(!).
Besonders bemerkenswert finde ich die Analyse der menschlichen Innovationstreiber des US-Marktes und der Schluss daraus – gerade wenn man überlegt, wie die Diskussion hierzulande geführt wird.
  • In den USA werden die Innovationen im Netz von der jungen Generation vorangetrieben.
  • 56% der US Top 25 High Tech Unternehmen wurden von Nachfahren erster oder zweiter Generation der Einwanderer gegründet.
  • Darum: Die USA sollte sich Gedanken machen, ob sie genug hochqualifizierte Einwanderer haben (ein etwas anderer Ansatz als hierzulande).
KPCB Internet Trends 2013 from Kleiner Perkins Caufield & Byers

Telekom, Drosselkom, Netzneutralität – Deutschland vergeigt die Zukunftschancen nicht nur im Netz

Die Diskussion um die Drosselungspläne der Telekom geht ja nun schon eine Weile, und der anfängliche Aufschrei ob der Begrenzung der Flatrate (und damit faktischen Preiserhöhung für manche Nutzer) wurde rasch ergänzt durch das Thema Netzneutralität. Denn die Telekom rechnet auf die nun begrenzte monatliche Datenrate ihre eigenen Angebote wie Entertain nicht an – und offeriert gleichzeitig anderen Unternehmen, den Traffic zu ihren Seiten im Rahmen von bezahlten “managed services” ebenfalls aus der Zählung zu nehmen. Trotz der intensiven Diskussion im Netz scheint die Tragweite dieses Vorgehens noch nicht allen bewusst zu sein, was man immer wieder beim Lesen von Beiträgen auf Facebook & Co. feststellen kann. Mir ist es daher wichtig, die Implikationen der Telekom-Strategie so einleuchtend wie möglich offenzulegen und damit zu zeigen, dass zum Einen die Beerdigung der mit dem sperrigen Wort “Netzneutralität” umschriebenen Gleichbehandlung der Angebote im Netz durch die Zugangsprovider ganz reale Auswirkungen auf alle hat und zum anderen nicht nur kurzfristige Schäden drohen, sondern ganz grundsätzlich die Zukunftsfähigkeit Deutschlands in Gefahr ist.

Warum der Aufschrei bei der Telekom?

Ganz klar: Wenn ein Wald- und Wiesenprovider die gleichen Pläne veröffentlicht hätte, würde sich kaum jemand daran stören. Die Telekom hat aber über 45% Marktanteil bei den DSL-Anschlüssen und ist damit unumstrittener Marktführer. Darüber hinaus bündelt sie häufig den DSL-Anschluss mit Telefon und/oder Mobilfunk, sodass ein Wechsel großen Aufwand für Kunden bedeutet. Und es fragt sich, ob ein Wechsel zu einem anderen Provider überhaupt etwas bringt. Denn es wird auch gemutmaßt, dass die Telekom nur der Vorreiter bei dieser Maßnahme ist und die anderen Provider nachziehen werden, sobald der Pulverdampf sich verzogen hat. Darum ist der Kampf gegen die Pläne auch so verbittert. Grundsätzlich hat die Telekom als unabhängiges Wirtschaftsunternehmen jedes Recht, ihre Produkte so zu gestalten, wie sie will. Zusammen mit der Marktmacht und der vermuteten Ausbreitung auf den Rest der Branche wird aber ein Präzedenzfall daraus, der weitreichende Auswirkungen letztendlich auf die Zukunft des Standortes Deutschland hat.

Internet goes Kabelfernsehen

Eine Drosselung der Datenmenge pro Monat ist ein reine monetäre Sache, sozusagen eine Preiserhöhung. Das ist nicht schön, aber legitim. Das eigentliche Problem ist die Tatsache, dass bestimmte Angebote wie Telekoms Entertain – oder die “managed services” von Dritten – nicht bei der Ermittlung des Datenverbrauchs mitzählen. Der Nutzer erhält dann sozusagen zwei Pakete: Eine echte Flatrate für Entertain (und/oder andere Angebote Dritter) und ein begrenztes Volumenpaket für den Rest des Internets. Denkt man diesen Ansatz zu Ende, dann kommt dabei ein Internet nach Art des Kabelfernsehens heraus: Jeder Anbieter hat unterschedliche Pakete im Angebot, unter denen man dann auswählen kann. Man muss sich also nicht nur für Bandbreite, sondern auch das Datenvolumen pro Monat und die Freipakete entscheiden. So könnte die Telekom Entertain, Spotify und Facebook im Angebot haben, Vodafone Google und Microsoft und O2 Apples iTunes sowie Twitters Musikdienst – diese Dienste gibt es dann als echte Flatrate. Das letzte Paket umfasst das restliche Internet – gedrosselt.

Die Drosselung als Preisetikett

Die Folge dieser Paketschnürerei ist perfide: Obwohl es für manche Nutzer mit dem derzeitigen Datenvolumen vieleicht rational keinen Grund gibt, schleicht sich beim Surfen ein Gedanke ein: Jeder Klick auf eine Webseite oder einen Download außerhalb der Freipakete kostet plötzlich etwas – nämlich einen Teil des Freivolumens. Und es könnte ja sein, dass man gegen Ende des Monats der Volumengrenze nahe kommt und dann entweder für weiteres schnelles Surfen bezahlen muss oder seinen Internetanschluss aufgrund mangelnder Geschwindigkeit quasi nicht mehr gebrauchen kann. Die Folge ist, dass im Zweifel die Dienste aus den Paketen gegenüber ähnlichen “freien” Angeboten vorgezogen werden. Also Spotify anstatt Rdio, YouTube statt Vimeo usw.

Innovationen werden erdrosselt

Das ist genau das Verhalten, was sich die Anbieter der “managed services” wünschen. Aus ihrer Sicht ist das großartig, es ist allerdings für den Rest des Internets verheerend. Denn bestehende und insbesondere neue Dienste, gerade solche mit großem Datenhunger, werden es extrem schwer haben, sich durchzusetzen – denn besonders ihre Nutzung zahlt voll auf das Freikontingent des Anschlusses ein. Jeder, der schon einmal mit YouTube-Surfen auf dem Handy sein mobiles Freivolumen aufgebraucht hat und dann den Rest des Monats im Schneckentempo durchs Netz kroch, weiß, was gemeint ist. Und dann merkt man sich, dass man das besser nicht mehr macht – der Todesstoß für die entsprechende Webseite. Die Aufgabe der Netzneutralität führt also zu einer weiteren Konzentration auf die sowieso schon großen Player und errichtet noch größere Hürden für kleine innovative Dienste, die gegen die etablierten antreten wollen. Kurz: Die Verletzung der Netzneutralität behindert Innovationen und neue Ideen. Ironischerweise wäre wahrscheinlich ein Spotify nie zur jetzigen Größe gelangt, wenn es die Drosselpläne vor ein paar Jahren schon gegeben hätte. [Update 3.6.2013] In einem Gespräch mit der F.A.Z. ordnet Andreas Mundt, Präsident des Bundeskartellamts, die Sachlage ähnlich ein. Die Telekom sei grundsätzlich in ihrer Preisgestaltung frei, die Ungleichbehandlung von Inhalten hätte aber eine wettbewerbsrechtliche Dimension: “So könnten erhebliche Marktzutrittsschranken entstehen, wenn kleine Anbieter nicht in der Lage sein sollten, sich eine prioritäre Behandlung zu erkaufen”. Da kann man gespannt sein, was die Prüfung der Sachlage durch das Kartellamt ergibt. [Ende Update]

Das Fernmeldegeheimnis wird löchrig

Ein weiterer problematischer Aspekt der unterschiedlichen Behandlung unterschiedlicher Anbieter, der bisher nur vereinzelt aufgegriffen wurde, ist das Ende der Privatsphäre des gedrosselten Nutzers. Denn um die freien Datenvolumina aus dem gesamten Datenstrom der Nutzer herausrechnen zu können, muss die Telekom den Datenverkehr jedes Nutzers protokollieren. Schon allein die Vorstellung schreckt ab, darüber hinaus sehen nicht nur Rechtsexperten (so z.B. RA Thomas Stadler) darin eine Verletzung des Fernmeldegeheimnisses, welches im § 88 des Telekommunikationsgesetzes festgeschrieben ist. Hier wird wahrscheinlich erst eine gerichtliche Klärung entscheiden, ob und wie die “managed services” rechtskonform sind.

The big picture

Soweit ich das beurteilen kann, wurde die Kritik rund um die Themen Drosselung und Netzneutralität hauptsächlich von “netzaktiven” Leuten vorangetrieben – glücklicherweise nicht ohne Erfolg, denn die offizielle ePetition wurde bis jetzt schon über 71.000 mal unterzeichnet. Trotzdem findet sich kein Entscheider aus der Politik, der die Angelegenheit vorantreibt und – viel wichtiger – die aktuellen Vorgänge in den großen Zusammenhang stellt und grundsätzlich die Zukunftsfähigkeit der aktuellen Netzinfrastruktur thematisiert.

Ein schnelles Netz ist das Fundament für fast alles

Denn die Datenströme des Internets sind mittlerweile zum Rückgrat fast aller neuen Technologien geworden. Vernetzung ist das große Thema nicht nur im Web, sondern im Maschinenbau, in der Produktion oder industriellen Fertigung. Während im Web über HD-Streaming zu den Endkunden diskutiert wird, tauschen gleichzeitig Millionen industrielle Anwendungen und Devices Daten miteinander aus oder holen sich Informationen aus dem Internet. Alle diese Technologien benötigen schnelle Netze mit großer, stabiler Bandbreite. Je größer die zur Verfügung stehende Bandbreite und je leichter diese zu erreichen ist, desto mehr und innovativere Services lassen sich entwickeln.

Deutschland braucht mehr Bandbreite, nicht weniger

Oder einfach gesagt: Deutschland braucht nicht weniger, sondern mehr Bandbreite. Für alle, überall. Und es reicht nicht, einfach Bandbreitenziele aufzustellen und dann zu warten, dass sich jemand darum kümmert. Unsere europäischen Nachbarn sind jetzt schon deutlich weiter und werden den Vorsprung ausbauen, wenn bei uns nichts passiert. In den USA überlegt Google sogar, Haushalte mit 1 GBit/s ans Glasfasernetz anzuschließen. Welche technischen Lösungen damit möglich werden, lässt sich heute nur erahnen.

Die Politik ist gefragt

Es ist eigentlich unfassbar, dass diese Fakten klar offen liegen und verschiedentlich auch aufgegriffen werden, aber die politischen Kräfte nicht in der Lage sind, diesen für die zukünftige Entwicklung des ganzen Landes so wichtigen Ausbau der technischen Infrastruktur auf die Agenda zu nehmen und Voraussetzungen zu schaffen, dass wir uns nicht schon sehr bald im globalen Vergleich der Innovationskraft der Länder hinten anstellen müssen. Der Telekom kann man in dieser Hinsicht sogar gar keinen Vorwurf machen. Sie handelt aus ihrer Sicht rational und zielführend. Dass man sie gewähren lässt und damit die Zukunftsfähigkeit des ganzen Landes aufs Spiel gesetzt wird, das ist der eigentliche Skandal.

Hat die Netzgemeinde beim Kampf gegen das Leistungsschutzrecht versagt?

Sascha Lobo bringt’s mal wieder auf den Punkt: Wir, die Netzgemeinde, haben beim Thema #LSR versagt. Allerdings frage ich mich schon, ob die Politiker in diesem Fall irgendetwas von ihrer Entscheidung abgebracht hätte. Ausreichend Gegengutachten und negative Stellungsnahmen von klassischen Verbänden der Wirtschaft und Rechtsexperten hat es ja gegeben. Hier war einfach die Furcht zu groß, im Wahlkampf den Axel Springer Verlag gegen sich zu haben. http://saschalobo.com/2013/03/22/unsere-muetter-unsere-fehler/ (Original auf Google+: https://plus.google.com/u/0/104135034057747253597/posts/8h6S3GDkxFd)

Unter den Top 10 Twitterern in Deutschland – ohne zu wissen, warum. Oder: wie man Fake-Follower nachweist.

Der Steuerberater Juliuan Holthaus rangiert als @jholthaus derzeit unter den Top 10 Twitterern in Deutschland – mit über 330.000 Followern. Eins unterscheidet ihn aber von seinen berühmten Nachbarn in dieser Liste: Er hat keinen blassen Schimmer, warum. Julian Holthaus ist Steuerberater in Münster und hat bisher nur ein paar Tweets geschrieben – nichts, was die große Menge an Followern erkläten würde. Daher wandte er sich an Ralf Heimann von der Münsterschen Zeitung, selbst ein erfahrener Twitterer, um Rat. Dieser rief spontan eine Münsteraner Online-Arbeitsgruppe ein, bestehend aus Christoph Salzig, Inhaber von pr//ip, Kai Heddergott, Kommunikationsberater, und mir (hier in meiner Eigenschaft als Monitoring-Spezialist bei altares Mediamonitoring). Wir waren uns schnell einig, dass diese Menge an Followern nur aus künstlichen Followern, also Fakes, bestehen kann. Ein Blick in das Monitoring-Tool Sysomos MAP zeigte schnell, dass vieles für diese Vermutung spricht: Die Analyse von 168.000 der 330.000 Followern von jholthaus zeigt, dass alle diese Follower zwischen dem 7.12.2011 und dem 24.10.2012 angelegt wurden. Keiner der Follower hat selbst mehr als 241 Follower, keiner folgt mehr als 2003 anderen Twitterern. Von einer zu erwartenden zufälligen Verteilung der Zahlen keine Spur. Darüber hinaus zeigte die Durchsicht zufälliger Followerprofile, dass Namen und Biografien häufig nicht zusammen passen. Erstere sind wahrscheinlich erfunden, letztere von anderen Profilen kopiert. Klare Hinweise, dass hier ein Follower-Generierungsprogramm am Werk war. Die Frage war jetzt nur: Wie kommen diese Follower zustande, ohne dass der Begünstigte etwas dafür getan hat. Christoph fand es heraus: In den USA wirbt ein Programmierer namens T.J.Holthaus – selbst mit über 440.000 Followers – unter dem Account @tjholthausfür den “EASY WAY TO GET FREE FOLLOWERS”. Der Vergleich der Accounts (wieder mit Sysomos MAP) zeigte deutliche Ähnlichkeiten beider Followerprofile bei der geografischen Herkunft der Follower, der Biografien und anderer Merkmale. Da liegt die Vermutung nahe: Beide haben Ihre Follower aus der gleichen Quelle. Und irgendwo hat der zuständige Programmierer wohl ein “t” vergessen, sodass die Fake-Accounts plötzlich @jholthaus anstatt @tjholthaus folgen… Nun freut sich Julian Holthaus über die Aufdeckung seines rätselhaften Followerwachstums – nachzulesen in der Münsterschen Zeitung:http://www.muensterschezeitung.de/lokales/muenster/Wie-ein-Steuerberater-aus-Muenster-Twitter-Star-wurde;art993,1888504 (Update: Christoph Salzig hat die Geschichte jetzt auch verbloggt: http://www.pr-ip.de/pripblog/mehr-follower-als-bushido-aber-keine-relevanz-die-seltsame-geschichte-von-jholthaus).

Urheber, werdet kreativ und fordert nicht nur!

Liebe Urheber, liebe Zeit, heute macht ihr euch in der Print-Ausgabe der Zeit für die Rechte der Urheber stark (siehe auch https://netzpolitik.org/2012/nochmal-100-kopfe-diesmal-in-der-zeit/). Schön. Dabei schreibt ihr u.a. das: “… Es gilt, den Schutz des Urheberrechts zu stärken und den heutigen Bedingungen des schnellen und massenhaften Zugangs zu den Produkten geistiger Arbeit anzupassen….”(siehe auch http://www.wir-sind-die-urheber.de/). Darf ich kurz dazu einen Kommentar loslassen? HÖRT BITTE AUF MIT PAUSCHALEN FORDERUNGEN, MACHT ENDLICH VORSCHLÄGE!!!!! UND ZWAR KONSTRUKTIVE! “Es gilt, den Schutz des Urheberrechts … den heutigen Bedingungen … anzupassen.”Ach nee. Darüber zerbrechen sich jede Menge kluger Menschen seit einiger Zeit die Köpfe – schon mitbekommen? Und da das Thema nicht unkomplex ist, haben die bisher noch keine Lösung gefunden. Es gibt also noch viel Raum, sich einzubringen. Mit kreativen Ideen, mit neuen Lösungsansätzen. Das würde helfen. Denn pauschale Forderungen bringen uns nicht weiter, auch wenn sie noch so bunt und groß gedruckt sind. Des Weiteren schreibt ihr: “Der in diesem Zusammenhang behauptete Interessen-gegensatz zwischen Urhebern und “Verwertern” entwirft ein abwegiges Bild unserer Arbeitsrealität. In einer arbeitsteiligen Gesellschaft geben Künstler die Vermarktung ihrer Werke in die Hände von Verlagen, Galerien, Produzenten oder Verwertungsgesellschaften, wenn diese ihre Interessen bestmöglich vertreten und verteidigen.” Ja, genau. Das soll ja auch so bleiben – nur das “wenn” ist der Knackpunkt. Denn es bestehen große Zweifel daran, dass die Verwerter in der aktuellen Situation eure Interessen wirklich bestmöglich vertreten. Mit alten Geschäftsmodellen kommt man nämlich heute nicht mehr weit. Wir brauchen also neue Modelle, neue Ideen, wie die digitale Realität umzusetzen ist, damit alle etwas davon haben. Freigabe aller Kopien kann es nicht sein, die völlige Überwachung des Webs zur Ahndung von Urheberrechtsverstößen auch nicht. Also müssen wir irgendetwas dazwischen finden. Setzt doch eure Kreativität ein, dort etwas zu entwickeln. Das wäre viel hilfreicher, als solche Aufrufe zu unterscheiben. Danke. MfG Ein leicht genervtes Mitglied der “Netzgemeinde”   (Teile als Crosspost von Google+:https://plus.google.com/u/0/104135034057747253597/posts/c85PaRKPBd9, siehe auch die Kommentare dort.)

Nach zwei Tagen re:publica – was fehlt [mit Update]

Nach zwei Tagen re:publica sitze ich im Zug zurück in die Heimat. Den dritten Tag werde ich nicht mehr vor Ort, sondern die Sessions nur noch (wahrscheinlich in Bruchstücken) vor dem Rechner miterleben können. Das ist schade, aber besser als in den letzen Jahren, als ich gar nicht nach Berlin kommen konnte. Nun lasse ich die Eindrücke Revue passieren und überlege, was für ein persönliches Fazit ich aus den ersten beiden Tagen der Konferenz ziehen soll. Das ist zunächst ein sehr positives: Die viel zitierte Klassentreffen-Atmosphäre ist wirklich da und es ist schön (und manchmal überraschend), Social Media-Bekanntschaften auch den Teil des Körpers zuordnen zu können, der sich unterhalb des Avatar-Bildes befindet. Daneben ist es natürlich sowieso spannend, sich mit einem bunten Haufen Gleichgesinnten über diverseste Themen auszutauschen. Alles bestens also? Nicht ganz. Etwas fehlt mir. Etwas wichtiges: Die Relevanz. Und das Business. Da spricht die gesamte Republik über die aktuellen Wahlerfolge der Piraten und die dahinter liegenden Gründe, die Urheberrechtsdiskussion schlägt hohe Wellen, die wirtschaftlichen Folgen neuen Rechts für Verwerter, Urheber und ganze Branchen sind ungeklärt, und drüben über den großen Teich geht die größte jemals existierende Webplattform an die Börse und kauft vorher noch einmal für eine Milliarde Dollar Unternehmen auf. Und in Berlin treffen sich die Protagonisten des deutschen Webs und diskutieren über – ja, über was eigentlich? Irgendwie über alles und nichts. Das Themenspektrum ist breit, jeder findet etwas für sich, aber die allermeisten Sessions machen einen großen Bogen um die beiden Mega-Themen: Wer hat die Macht im Web und wer verdient warum wirklich Geld mit welchen Geschäftsmodellen? Denn es sollte eigentlich jedem klar sein, dass die Entscheidungen über die Zukunft des Webs entweder aus der Perspektive des Machterhalts (Politik) oder wirtschaftlicher Interessen (Unternehmen) getroffen werden. Darum müsste sich eine Netzkonferenz, welche eine Leitwirkung ausstrahlen will, insbesondere mit der Analyse und Herausarbeitung von politischen und unternehmerischen Entscheidungsprozessen, machtpolitischen Schachzügen, wirtschaftlichen Strategien und neuen Geschäftsmodellen widmen – nicht ausschließlich, aber schwerpunktmäßig neben den anderen Themenbereichen. Einige zaghafte Versuche gab es ja – aber die Diskussion um den digitalen Dorfplatz brachte zwar die Zuspitzung “AGB oder Grundgesetz” hervor, war mit einer Stunde aber viel zu knapp bemessen. Und das  eigentlich sehr spannende Thema “Disruption von Geschäftsmodellen” krankte an seiner eher theoretischen Aufarbeitung. So war es (wieder einmal) Sascha Lobo vorbehalten, der versammelten Netzgemeinde ihre Aufgaben ins Stammbuch zu schreiben: Die Überzeugung der 30 Millionen “Internotnutzer”, dass netzpolitische Ideen durchaus wichtig und unterstützenswert sind, die Gefahr der Aufhebung der Netzneutralität durch die Hintertür und zunehmende Machtkonzentration bei wenigen Unternehmen, die wirtschaftlich, nicht nach Allgemeininteresse ausgerichtet sind und handeln. Das sind auch aus meiner Sicht die Themen, über die sich die klügsten Köpfe des Webs austauschen sollten, wenn sie denn alle zusammenkommen. Dazu sollten gerne noch mehr Vertreter von großen Unternehmen wie Google, Facebook & Co. kommen und ihre Sicht der Zukunft (nicht die ihrer Produkte) vorstellen. Das hätte zum Einen den Vorteil, dass man die Meinung wirklicher Entscheider kennenlernt und zum Anderen ihnen auch gleich Wünsche und Meinungen mitgeben kann. Eine solche Richtungsänderung der re:publica mag vielleicht von einigen als zu kommerziell abgelehnt werden, sie ist aber meines Ermessens unbedingt notwendig, wenn die Veranstaltung in Zukunft weiterhin den Anspruch erheben will, richtungsweisende Entscheidungen für das Web mitzugestalten. Denn das hat sie verdient.

[UPDATE 04.05.2012]

Vorhin verfolgte ich den Live-Stream von Stage 1, es sprachen Jacob Appelbaum und Dmytri Kleiner zum Thema “Resisting the surveillance state and its network effects” (übrigens sehr spannend, viele Einsichten vermittelnd und nachdenklich machend). Die beiden Redner sagten klar: Die Strukturen im Netz, insbesondere Social Networks, können nicht mehr von Freiwilligen in ihrer Freizeit programmiert und betrieben werden. Sie werden von Unternehmen geschaffen, die dafür Geld von Investoren einsammeln. Dafür bieten die Unternehmensgründer ihren Geldgebern ein Geschäftsmodell an, um die Investitionen wieder hereinzuspielen. Oder klar ausgedrückt: Die Plattformen, die wir zum Austausch und zur Diskussion nutzen, sind nicht dazu gemacht, um uns genau das möglichst frei und ungehindert zu ermöglichen, sondern sie funktionieren knallhart nach wirtschaftlichen Kriterien. Und tun sie das nicht, existieren sie bald nicht mehr. Das kann man gut finden oder auch nicht, es ist aber nun einmal die Realität. Will man im Netz etwas verändern, so muss man die ökonomischen Regeln, Gebräuche und Handlungszwänge verstehen, denen fast alle Netzfirmen unterliegen. Und die Beschäftigung mit diesem Themen fehlt mir total auf der re:publica. Ich habe keine Ahnung, ob Wirtschaft uncool ist oder einfach die passenden Redner fehlen, aber gerade dann sollte man anstreben, die Netzgemeinde in diesen Dingen etwas zu schulen. Warum lässt man nicht einen Experten die Zahlen von Facebook vor dem Börsengang analysieren und einschätzen, welche Einflüsse eine Börsennotierung auf die zukünftige Strategie von Facebook haben könnte? Warum erklärt keiner die neuesten Entwicklungen auf dem Technologiesektor und deren Auswirkungen auf Kommunikation und Interaktion? Wieso erläutert niemand die Marktgrößen von Print und Musik, deren Entwicklung in den letzten Jahren und diskutiert die Konsequenzen von Urheberrechtsänderungen? Das sind die Fragen, welche den anstehenden Weichenstellungen zugrunde liegen. Es wäre wirklich zu wünschen, wenn das Spektrum der re:publica in Zukunft um diese Aspekte erweitert würde.

Thesen zum Urheberrecht: Schüttet das Kind nicht mit dem Bade aus!

Zurzeit brandet ja die Diskussion um eine grundsätzliche Änderung des Urheberrechts hoch, mit immer mehr emotionalen Beiträgen, zuletzt von Sven Regener, dem Sänger der Band Elememt of Crime (hier sein Interview auf BR2). Dabei wird gerne polarisiert, von Seiten der Befürworter des aktuellen Status wie auch von den Streitern einer weitgehenden Freigabe der Rechte (eine immer länger werdende Liste aller Beiträge findet sich bei Heike Rost). Nun zähle ich mich eigentlich eher zugehörig zu der “Netzgemeinde”, wie auch immer sie genau definiert sein mag und bin sicher kein Unterstützer der unbedingten Aufrechterhaltung überholter Geschäftsmodelle per Gesetz. Ich stimme auch vorbehaltlos zu, wenn das Internet als Katalysator vieler positiver Entwicklungen gesehen wird und ein möglichst freier Austausch von Inhalten und Ideen gefördert werden soll. Allerdings weiß ich nicht, ob “frei” auch immer “kostenlos” heißen muss. Denn ich bin in Sorge, dass ohne Einnahmen aus den Inhalten viele Urheber nicht mehr in der Lage sein werden, welche zu produzieren. Bei den Hauptpunkten pro freies Kopieren stört mich besonders, dass einige grundsätzliche Gesetzmäßigkeiten komplett ausblendet werden und deshalb aus meiner Sicht falsche Schlüsse gezogen werden. Dabei handelt es sich um die Argumentationen: Freies Kopieren und freie Nutzung: Da es keinen effektiven Kopierschutz gibt, sollte man digitale Kopien urheberrechtlich geschützten Materials gleich freigeben. Denn freie Kopien fördern die Entwicklung der Gesellschaft. Es braucht heutzutage keine Verlage oder Medienkonzerne, die Künstler können sich selbst vermarkten: Die Geschäftsmodelle der Musikindustrie und der Verlage sind überholt, die Künster und Autoren können sich selbst vermarkten. Das sehe ich (mittlerweile) etwas differenzierter:

These 1: Die aktuellen Geschäftsmodelle der Musikindustrie und Verlage mögen überholt sein, ihre Funktionen sind es nicht.

Denn zurzeit mag die gern beispielhaft angeführte Eigenvermarktung einiger Künster und Autoren im Netz funktionieren, weil es noch wenige tun. Wenn sich aber mehr Künstler um die Aufmerksamkeit einer in etwa gleichbleibenden Anzahl vob Hörern/Nutzern/Käufern streiten, dann wird der einzelne Künstler weniger vom Kuchen abbekommen – das ist einfache Mathematik. Ob die erzielten Einnahmen dann noch für alle zum Leben reichen, bezweifle ich. Die logische Folge zunehmender Eigenvermarktung ist, dass sich die Künstler und Autoren selbst um Marketing und Vertrieb kümmern müssen. Ja, genau das böse Marketing, was die Plattenfirmen bisher machen. Denn mit geistigen Werken ist es wie mit schnöden physischen Produkten: Mehr von ihrem Zeug verkaufen dann im Zweifel diejenigen, die das bessere Marketing machen (solange ihre Musik oder Schreibe das hergibt). Nun ist aber dummerweise das Talent zur Vermarktung nicht analog zu dem für das Musikmachen oder Schreiben verteilt. Das gleiche gilt für das individuelle Budget, welches fürs Marketing ausgegeben werden kann. Oder anders ausgedrückt: Wer es selbst nicht kann oder will, beauftragt Leute, die mehr davon verstehen. Und das kostet Geld. Künster und Autoren, die sich ein angemessenes Vertriebs- und Marketingbudget leisten können, haben damit kein Problem – aber das sind nur wenige. Der Rest ist darauf angewiesen, dass jemand anderes in Vorleistung geht, sonst wird niemand etwas von der Musik und/oder Büchern erfahren. Und genau das machen heutzutage Verlage und Labels. Zwischenfazit 1: Die Erstellung von Inhalten braucht grundlegende Voraussetzungen, welche nicht wegdiskutiert werden können. Auch wenn Verlage und Labels in Zukunft anders aussehen als heute und ihre Funktionen vielleicht von anderen erfüllt werden – irgendwer muss Produktion, Marketing, Vertrieb usw. übernehmen. Und im Zweifel vorfinanzieren. Das können die Urheber im Gegensatz zu manchen Darstellungen nicht leisten.

These 2: Es braucht neue Geschäftsmodelle für die digitale Inhaltevermarktung. Dabei darf aber der Verkauf von Inhalten nicht ausgeschlossen werden.

Es sind nun also schon mindestens zwei Parteien, die Einnahmen durch die Inhalte erwarten: Die Produzenten/Marketingler/Vertriebler, die in Vorleistung gegangen sind, und die Urheber selbst, welche schließlich von ihrer Arbeit leben wollen. Drei Modelle zur Erzielung von Einnahmen aus digitalen Inhalten werden üblicherweise in der Diskussion genannt:
  • Einnahmen aus dem Verkauf der Inhalte.
  • Einnahmen aus physischen Nebengeschäften wie Konzerte, Lesungen, Merchandising etc.
  • Einnahmen aus Werbung auf Webseiten, auf dem das Material zu finden ist.
Die dritte Variante wird häufig als das “neue Geschäftsmodell” genannt. Dummerweise sagt die Erfahrung der letzten Jahre, dass das so einfach nicht funktioniert. Die Preise für Werbung im Web sind aufgrund des Überangebots von Werbeplätzen im Keller, sodass damit nur ganz große Webseiten profitabel arbeiten können. Eine auskömmliche Finanzerung von allen Künstlern oder Autoren durch die Partizipation an Werbeeinnahmen ist schlichtweg unmöglich. Die zweite Variante mag für bekannte Künstler eine Lösung sein, für die überwiegende Anzahl von Autoren und Musikern ist sie es nicht. Denn die tauchen gerade vielleicht einmal im Impressum der Zeitung oder als Kürzel unter den Artikeln auf – eine denkbar schlechte Ausgangsposition für eine Vermarketung. Bleibt also noch das gute alte Verkaufen der Inhalte. Und das geschieht zum überwiegenden Teil an Private, also genau die Zielgruppe, für die die Kopien frei sein sollen. Mit der Freigabe der Kopien würde dieser komplette Verwertungszweig wegfallen – denn wenn der private Austausch von Dateien frei ist, braucht es keine Kaufportale wie iTunes oder amazon & Co. mehr. Warum sollte ich Geld für Musik und eBooks ausgeben, wenn ich sie bei peer-to-peer Netzwerken umsonst bekomme? Zwischenfazit 2: Die Freigabe von Kopien würde die größte Säule der Einnahmen komplett wegbrechen lassen und so die monitäre Verwertung von digitalen Inhalten sowohl für Verwerter als auch für Urheber bis auf Ausnahmen fast unmöglich machen – ohne die Aussicht auf alternative Verwertungsmodelle. Das würde gerade die Urheber extenziell treffen und kann nicht Sinn und Zweck einer Urheberrechtsreform sein.

Fazit: Die generelle Freigabe von Kopien schüttet das Kind mit dem Bade aus.

Die Kritik an den großen Verwertern digitaler Inhalte, der Musikindustrie und den Verlagen, mag berechtigt sein. Die Geschäftsmodelle sind teilweise veraltet und haben sich den neuen Gegebenheiten noch nicht angepasst. Dennoch sind die Funktionen dieser Institutionen die Voraussetzung (neudeutsch würde ich “Enabler” sagen) dafür, dass viele Inhalte überhaupt erst erstellt und produziert werden. Die vollständige Freigabe der Kopie mag zunächst für die Gesellschaft förderlich sein, führt aber durch das Wegfallen der Monetarisierungsmöglichkeit dazu, dass Urheber sich das Urheben nicht mehr leisten können und somit Menge und Vielfalt insbesondere von Musik und Literatur dramatisch zurückgehen wird. Damit wird genau das Gegenteil davon erreicht, was eigentlich Ziel der Übung war.

Twitter kauft Posterous – um sich Google+ anzunähern?

Gestern gab Twitter bekannt, dass sie die Posterous geklauft haben (hier der Blogeintrag). Posterous zeichnet sich dadurch aus, dass man sehr einfach ein Blog aufsetzen und dies per E-Mail befüllen kann (Sascha Lobo hat das einmal als “Bloggen mit Stützrädern” bezeichnet). Nun fragen sich viele, warum Twitter diesen Schritt vollzogen hat: So z.B. Nico Lumma (http://lumma.de/2012/03/12/twitter-kauft-posterous-auf-suche-nach-geschaeftsmodell/) oder Caschy (http://stadt-bremerhaven.de/twitter-kauft-posterous/). Die meisten Kommentatoren wundern sich über diesen Schritt und fragen sich, was er über Twitters zukünftige Strategie aussagt. Für mich sind es zwei Hauptaspekte:
  • Twitter braucht dringend fähige Entwickler. Mit dem Posterous-Team bekommt Twitter ein Team, welches sich genau in der Branche hervorragend auskennt und sofort einsatzfähig ist. Sehr wertvoll.
  • Twitter orientiert sich an Google+. Twitter hat gesehen, dass das Konzept von Google+, kurze Beiträge mit einer einfachen Kommentarfunktion zu verbinden, genau in die Lücke zwischen Twitter und Blogs trifft und genau deswegen auch so erfolgreich ist. Ich vermute stark, dass Twitter Posterous integrieren wird und so sich an das Google+-Konzept annähern wird. Bei G+ findet man häufiger den Wunsch, G+-Beiträge inklusive Diskussionen als eigenes Blog zu spiegeln. Genau das könnte eine Kombination aus Twitter und Posterous schaffen.
Ich bin gespannt, in welche Richtung sich das neue Tamdem entwickeln wird. Zum Thema hier noch die Wortwolke aus den deutschsprachigen Treffern von heute morgen (Quelle: Sysomos MAP): Wortwolke zu Twitter und Posterous
Seite 1 von 612345...Letzte »