Google vergisst nicht, es ist jetzt nur auf einem Auge blind

Die Berichterstattung über das EuGH-Urteil „Recht auf Vergessen(werden)“ gegen Google ist ja sehr umfangreich gewesen, eine kurze Suche mit Talkwalker nach den Stichwort ergibt zurzeit über 2.500 Treffer in den letzten sieben Tagen alleine in News, Blogs und Foren. Bei den allermeisten von mir gelesenen Artikeln irritiert mich allerdings die Kernbotschaft, die dort vermittelt wird: Google vergisst jetzt, Links müssen auf Anfrage gelöscht werden, kritische Artikel können jetzt unterdrückt werden.

Das stimmt nicht. Google löscht keine Links – es zeigt sie nur bei bestimmten Suchen nicht mehr an.

Der Kern des EuGH-Urteils war, dass Google bei der Suche nach Namen von Personen mit der Ausgabe der üblichen Ergebnisliste ein Persönlichkeitsprofil erstellt, welches das in der europäische Datenschutzrichtlinie verankerte Recht auf Privatsphäre verletzt. Nur in diesem Fall kann ein Betroffener Löschung des Links aus der Suchergebnisliste verlangen – in der Kurzform nachzulesen z.B. bei RA Thomas Stadtler.

Wenn also Max Mustermann sich in grauer Vorzeit einmal daneben benommen hat und ein alter Artikel über seine Schützenfestscherze noch immer über die Google-Suche nach „Max Mustermann“ in der digitalen Lokalzeitung zu finden ist, dann kann Max Mustermann eine Löschung des Links aus der Suchergebnisliste verlangen. Der Link zum Artikel bleibt aber weiterhin im Google-Index, er darf nur nicht bei der Suche nach „Max Mustermann“ ausgeworfen werden. Suchen nach „Schützenfest 2000“ oder „Die besten Scherze der Schützen“ können weiterhin auf den Artikel verweisen – denn hier werden keine Persönlichkeitsprofile erstellt.

Kritische Artikel werden also weiterhin bei Google gefunden, man muss nur andere Suchanfragen stellen. Das hört sich zunächst einfach an, hat allerdings einen Haken: Wenn ich nicht weiß, wonach ich suchen muss, finde ich nur schwer die entsprechenden Artikel. Hier ist in Zukunft also etwas mehr Einsatz und Kreativität gefragt.

Ich bin mir zudem sicher, dass uns das Thema in den nächsten Jahren noch häufiger beschäftigen wird. Denn es wird genügend Leute geben, die das Urteil nutzen wollen, um bei Google ein makelloses Trefferbild bei der Suche nach ihrem Namen durchzusetzen. Inwieweit das umgesetzt werden muss, werden die Gerichte beurteilen. Ähnlich strittig dürften die betreffenden Suchanfragen selbst sein: Werden nur Anfragen nach „Max Mustermann“ vom Urteil erfasst? Oder reichen auch schon „Mustermann“ oder „M. Mustermann“ als Suchbegriffe?

Es ist also noch vieles im Fluss, auch wenn die aktuelle Aufregung in den Online-Blättern etwas anderes vermittelt.

 

Social Media führt: Analyse der Meldungen beim Flugzeug-Crash in San Francisco

Nicht von uns (mediamonitoring), aber dennoch sehr lesenswert: Die auf Airlines spezialisierte Beratung SimpliFlying hat die Social Media-Karriere des Flugzeug-Crashs in San Francisco (SFO) detailliert analysiert. Dabei zeigt sich, dass die Social Media Meldungen – insbesondere Twitter – an Schnelligkeit nicht zu überbieten sind und die ersten Twitterer sehr schnell und intensiv von den „traditionellen“ Berichterstattern kontaktiert und eingebunden werden.

Im weiteren Verlauf der Meldungen beweist sich der alte Ratschlag: Man sollte eine Social Media Vernetzung und Monitoring nicht erst aufbauen, wenn man es braucht – denn dann ist es zu spät. Gerade in der Krisenkommunikation sind die Social Media Kanäle Gold Wert, um eigene Informationen schnell in die Öffentlichkeit zu bringen.

Einfach mal durch die Folien klicken. Es lohnt sich!

Hat die Netzgemeinde beim Kampf gegen das Leistungsschutzrecht versagt?

Sascha Lobo bringt’s mal wieder auf den Punkt: Wir, die Netzgemeinde, haben beim Thema #LSR versagt. Allerdings frage ich mich schon, ob die Politiker in diesem Fall irgendetwas von ihrer Entscheidung abgebracht hätte. Ausreichend Gegengutachten und negative Stellungsnahmen von klassischen Verbänden der Wirtschaft und Rechtsexperten hat es ja gegeben. Hier war einfach die Furcht zu groß, im Wahlkampf den Axel Springer Verlag gegen sich zu haben.

http://saschalobo.com/2013/03/22/unsere-muetter-unsere-fehler/

(Original auf Google+: https://plus.google.com/u/0/104135034057747253597/posts/8h6S3GDkxFd)

Unter den Top 10 Twitterern in Deutschland – ohne zu wissen, warum. Oder: wie man Fake-Follower nachweist.

Der Steuerberater Juliuan Holthaus rangiert als @jholthaus derzeit unter den Top 10 Twitterern in Deutschland – mit über 330.000 Followern. Eins unterscheidet ihn aber von seinen berühmten Nachbarn in dieser Liste: Er hat keinen blassen Schimmer, warum. Julian Holthaus ist Steuerberater in Münster und hat bisher nur ein paar Tweets geschrieben – nichts, was die große Menge an Followern erkläten würde. Daher wandte er sich an Ralf Heimann von der Münsterschen Zeitung, selbst ein erfahrener Twitterer, um Rat. Dieser rief spontan eine Münsteraner Online-Arbeitsgruppe ein, bestehend aus Christoph Salzig, Inhaber von pr//ip, Kai Heddergott, Kommunikationsberater, und mir (hier in meiner Eigenschaft als Monitoring-Spezialist bei altares Mediamonitoring).

Wir waren uns schnell einig, dass diese Menge an Followern nur aus künstlichen Followern, also Fakes, bestehen kann. Ein Blick in das Monitoring-Tool Sysomos MAP zeigte schnell, dass vieles für diese Vermutung spricht: Die Analyse von 168.000 der 330.000 Followern von jholthaus zeigt, dass alle diese Follower zwischen dem 7.12.2011 und dem 24.10.2012 angelegt wurden. Keiner der Follower hat selbst mehr als 241 Follower, keiner folgt mehr als 2003 anderen Twitterern. Von einer zu erwartenden zufälligen Verteilung der Zahlen keine Spur. Darüber hinaus zeigte die Durchsicht zufälliger Followerprofile, dass Namen und Biografien häufig nicht zusammen passen. Erstere sind wahrscheinlich erfunden, letztere von anderen Profilen kopiert. Klare Hinweise, dass hier ein Follower-Generierungsprogramm am Werk war.

Die Frage war jetzt nur: Wie kommen diese Follower zustande, ohne dass der Begünstigte etwas dafür getan hat. Christoph fand es heraus: In den USA wirbt ein Programmierer namens T.J.Holthaus – selbst mit über 440.000 Followers – unter dem Account @tjholthausfür den „EASY WAY TO GET FREE FOLLOWERS“. Der Vergleich der Accounts (wieder mit Sysomos MAP) zeigte deutliche Ähnlichkeiten beider Followerprofile bei der geografischen Herkunft der Follower, der Biografien und anderer Merkmale. Da liegt die Vermutung nahe: Beide haben Ihre Follower aus der gleichen Quelle. Und irgendwo hat der zuständige Programmierer wohl ein „t“ vergessen, sodass die Fake-Accounts plötzlich @jholthaus anstatt @tjholthaus folgen…

Nun freut sich Julian Holthaus über die Aufdeckung seines rätselhaften Followerwachstums – nachzulesen in der Münsterschen Zeitung:http://www.muensterschezeitung.de/lokales/muenster/Wie-ein-Steuerberater-aus-Muenster-Twitter-Star-wurde;art993,1888504

(Update: Christoph Salzig hat die Geschichte jetzt auch verbloggt: http://www.pr-ip.de/pripblog/mehr-follower-als-bushido-aber-keine-relevanz-die-seltsame-geschichte-von-jholthaus).

Urheber, werdet kreativ und fordert nicht nur!

Liebe Urheber, liebe Zeit,

heute macht ihr euch in der Print-Ausgabe der Zeit für die Rechte der Urheber stark (siehe auch https://netzpolitik.org/2012/nochmal-100-kopfe-diesmal-in-der-zeit/). Schön.

Dabei schreibt ihr u.a. das:

„… Es gilt, den Schutz des Urheberrechts zu stärken und den heutigen Bedingungen des schnellen und massenhaften Zugangs zu den Produkten geistiger Arbeit anzupassen….“(siehe auch http://www.wir-sind-die-urheber.de/).

Darf ich kurz dazu einen Kommentar loslassen?

HÖRT BITTE AUF MIT PAUSCHALEN FORDERUNGEN, MACHT ENDLICH VORSCHLÄGE!!!!! UND ZWAR KONSTRUKTIVE!

„Es gilt, den Schutz des Urheberrechts … den heutigen Bedingungen … anzupassen.“Ach nee. Darüber zerbrechen sich jede Menge kluger Menschen seit einiger Zeit die Köpfe – schon mitbekommen? Und da das Thema nicht unkomplex ist, haben die bisher noch keine Lösung gefunden. Es gibt also noch viel Raum, sich einzubringen. Mit kreativen Ideen, mit neuen Lösungsansätzen. Das würde helfen.

Denn pauschale Forderungen bringen uns nicht weiter, auch wenn sie noch so bunt und groß gedruckt sind.

Des Weiteren schreibt ihr: „Der in diesem Zusammenhang behauptete Interessen-gegensatz zwischen Urhebern und „Verwertern“ entwirft ein abwegiges Bild unserer Arbeitsrealität. In einer arbeitsteiligen Gesellschaft geben Künstler die Vermarktung ihrer Werke in die Hände von Verlagen, Galerien, Produzenten oder Verwertungsgesellschaften, wenn diese ihre Interessen bestmöglich vertreten und verteidigen.“ Ja, genau. Das soll ja auch so bleiben – nur das „wenn“ ist der Knackpunkt. Denn es bestehen große Zweifel daran, dass die Verwerter in der aktuellen Situation eure Interessen wirklich bestmöglich vertreten. Mit alten Geschäftsmodellen kommt man nämlich heute nicht mehr weit.

Wir brauchen also neue Modelle, neue Ideen, wie die digitale Realität umzusetzen ist, damit alle etwas davon haben. Freigabe aller Kopien kann es nicht sein, die völlige Überwachung des Webs zur Ahndung von Urheberrechtsverstößen auch nicht. Also müssen wir irgendetwas dazwischen finden. Setzt doch eure Kreativität ein, dort etwas zu entwickeln. Das wäre viel hilfreicher, als solche Aufrufe zu unterscheiben. Danke.

MfG

Ein leicht genervtes Mitglied der „Netzgemeinde“

 

(Teile als Crosspost von Google+:https://plus.google.com/u/0/104135034057747253597/posts/c85PaRKPBd9, siehe auch die Kommentare dort.)

Nach zwei Tagen re:publica – was fehlt [mit Update]

Nach zwei Tagen re:publica sitze ich im Zug zurück in die Heimat. Den dritten Tag werde ich nicht mehr vor Ort, sondern die Sessions nur noch (wahrscheinlich in Bruchstücken) vor dem Rechner miterleben können. Das ist schade, aber besser als in den letzen Jahren, als ich gar nicht nach Berlin kommen konnte.

Nun lasse ich die Eindrücke Revue passieren und überlege, was für ein persönliches Fazit ich aus den ersten beiden Tagen der Konferenz ziehen soll. Das ist zunächst ein sehr positives: Die viel zitierte Klassentreffen-Atmosphäre ist wirklich da und es ist schön (und manchmal überraschend), Social Media-Bekanntschaften auch den Teil des Körpers zuordnen zu können, der sich unterhalb des Avatar-Bildes befindet. Daneben ist es natürlich sowieso spannend, sich mit einem bunten Haufen Gleichgesinnten über diverseste Themen auszutauschen. Alles bestens also?

Nicht ganz. Etwas fehlt mir. Etwas wichtiges: Die Relevanz. Und das Business.

Da spricht die gesamte Republik über die aktuellen Wahlerfolge der Piraten und die dahinter liegenden Gründe, die Urheberrechtsdiskussion schlägt hohe Wellen, die wirtschaftlichen Folgen neuen Rechts für Verwerter, Urheber und ganze Branchen sind ungeklärt, und drüben über den großen Teich geht die größte jemals existierende Webplattform an die Börse und kauft vorher noch einmal für eine Milliarde Dollar Unternehmen auf. Und in Berlin treffen sich die Protagonisten des deutschen Webs und diskutieren über – ja, über was eigentlich? Irgendwie über alles und nichts. Das Themenspektrum ist breit, jeder findet etwas für sich, aber die allermeisten Sessions machen einen großen Bogen um die beiden Mega-Themen: Wer hat die Macht im Web und wer verdient warum wirklich Geld mit welchen Geschäftsmodellen?

Denn es sollte eigentlich jedem klar sein, dass die Entscheidungen über die Zukunft des Webs entweder aus der Perspektive des Machterhalts (Politik) oder wirtschaftlicher Interessen (Unternehmen) getroffen werden. Darum müsste sich eine Netzkonferenz, welche eine Leitwirkung ausstrahlen will, insbesondere mit der Analyse und Herausarbeitung von politischen und unternehmerischen Entscheidungsprozessen, machtpolitischen Schachzügen, wirtschaftlichen Strategien und neuen Geschäftsmodellen widmen – nicht ausschließlich, aber schwerpunktmäßig neben den anderen Themenbereichen.

Einige zaghafte Versuche gab es ja – aber die Diskussion um den digitalen Dorfplatz brachte zwar die Zuspitzung „AGB oder Grundgesetz“ hervor, war mit einer Stunde aber viel zu knapp bemessen. Und das  eigentlich sehr spannende Thema „Disruption von Geschäftsmodellen“ krankte an seiner eher theoretischen Aufarbeitung. So war es (wieder einmal) Sascha Lobo vorbehalten, der versammelten Netzgemeinde ihre Aufgaben ins Stammbuch zu schreiben: Die Überzeugung der 30 Millionen „Internotnutzer“, dass netzpolitische Ideen durchaus wichtig und unterstützenswert sind, die Gefahr der Aufhebung der Netzneutralität durch die Hintertür und zunehmende Machtkonzentration bei wenigen Unternehmen, die wirtschaftlich, nicht nach Allgemeininteresse ausgerichtet sind und handeln.

Das sind auch aus meiner Sicht die Themen, über die sich die klügsten Köpfe des Webs austauschen sollten, wenn sie denn alle zusammenkommen. Dazu sollten gerne noch mehr Vertreter von großen Unternehmen wie Google, Facebook & Co. kommen und ihre Sicht der Zukunft (nicht die ihrer Produkte) vorstellen. Das hätte zum Einen den Vorteil, dass man die Meinung wirklicher Entscheider kennenlernt und zum Anderen ihnen auch gleich Wünsche und Meinungen mitgeben kann.

Eine solche Richtungsänderung der re:publica mag vielleicht von einigen als zu kommerziell abgelehnt werden, sie ist aber meines Ermessens unbedingt notwendig, wenn die Veranstaltung in Zukunft weiterhin den Anspruch erheben will, richtungsweisende Entscheidungen für das Web mitzugestalten. Denn das hat sie verdient.

[UPDATE 04.05.2012]

Vorhin verfolgte ich den Live-Stream von Stage 1, es sprachen Jacob Appelbaum und Dmytri Kleiner zum Thema „Resisting the surveillance state and its network effects“ (übrigens sehr spannend, viele Einsichten vermittelnd und nachdenklich machend). Die beiden Redner sagten klar: Die Strukturen im Netz, insbesondere Social Networks, können nicht mehr von Freiwilligen in ihrer Freizeit programmiert und betrieben werden. Sie werden von Unternehmen geschaffen, die dafür Geld von Investoren einsammeln. Dafür bieten die Unternehmensgründer ihren Geldgebern ein Geschäftsmodell an, um die Investitionen wieder hereinzuspielen. Oder klar ausgedrückt: Die Plattformen, die wir zum Austausch und zur Diskussion nutzen, sind nicht dazu gemacht, um uns genau das möglichst frei und ungehindert zu ermöglichen, sondern sie funktionieren knallhart nach wirtschaftlichen Kriterien. Und tun sie das nicht, existieren sie bald nicht mehr. Das kann man gut finden oder auch nicht, es ist aber nun einmal die Realität.

Will man im Netz etwas verändern, so muss man die ökonomischen Regeln, Gebräuche und Handlungszwänge verstehen, denen fast alle Netzfirmen unterliegen. Und die Beschäftigung mit diesem Themen fehlt mir total auf der re:publica. Ich habe keine Ahnung, ob Wirtschaft uncool ist oder einfach die passenden Redner fehlen, aber gerade dann sollte man anstreben, die Netzgemeinde in diesen Dingen etwas zu schulen. Warum lässt man nicht einen Experten die Zahlen von Facebook vor dem Börsengang analysieren und einschätzen, welche Einflüsse eine Börsennotierung auf die zukünftige Strategie von Facebook haben könnte? Warum erklärt keiner die neuesten Entwicklungen auf dem Technologiesektor und deren Auswirkungen auf Kommunikation und Interaktion? Wieso erläutert niemand die Marktgrößen von Print und Musik, deren Entwicklung in den letzten Jahren und diskutiert die Konsequenzen von Urheberrechtsänderungen?

Das sind die Fragen, welche den anstehenden Weichenstellungen zugrunde liegen. Es wäre wirklich zu wünschen, wenn das Spektrum der re:publica in Zukunft um diese Aspekte erweitert würde.

Thesen zum Urheberrecht: Schüttet das Kind nicht mit dem Bade aus!

Zurzeit brandet ja die Diskussion um eine grundsätzliche Änderung des Urheberrechts hoch, mit immer mehr emotionalen Beiträgen, zuletzt von Sven Regener, dem Sänger der Band Elememt of Crime (hier sein Interview auf BR2). Dabei wird gerne polarisiert, von Seiten der Befürworter des aktuellen Status wie auch von den Streitern einer weitgehenden Freigabe der Rechte (eine immer länger werdende Liste aller Beiträge findet sich bei Heike Rost).

Nun zähle ich mich eigentlich eher zugehörig zu der „Netzgemeinde“, wie auch immer sie genau definiert sein mag und bin sicher kein Unterstützer der unbedingten Aufrechterhaltung überholter Geschäftsmodelle per Gesetz. Ich stimme auch vorbehaltlos zu, wenn das Internet als Katalysator vieler positiver Entwicklungen gesehen wird und ein möglichst freier Austausch von Inhalten und Ideen gefördert werden soll. Allerdings weiß ich nicht, ob „frei“ auch immer „kostenlos“ heißen muss. Denn ich bin in Sorge, dass ohne Einnahmen aus den Inhalten viele Urheber nicht mehr in der Lage sein werden, welche zu produzieren.

Bei den Hauptpunkten pro freies Kopieren stört mich besonders, dass einige grundsätzliche Gesetzmäßigkeiten komplett ausblendet werden und deshalb aus meiner Sicht falsche Schlüsse gezogen werden. Dabei handelt es sich um die Argumentationen:

Freies Kopieren und freie Nutzung: Da es keinen effektiven Kopierschutz gibt, sollte man digitale Kopien urheberrechtlich geschützten Materials gleich freigeben. Denn freie Kopien fördern die Entwicklung der Gesellschaft.

Es braucht heutzutage keine Verlage oder Medienkonzerne, die Künstler können sich selbst vermarkten: Die Geschäftsmodelle der Musikindustrie und der Verlage sind überholt, die Künster und Autoren können sich selbst vermarkten.

Das sehe ich (mittlerweile) etwas differenzierter:

These 1: Die aktuellen Geschäftsmodelle der Musikindustrie und Verlage mögen überholt sein, ihre Funktionen sind es nicht.

Denn zurzeit mag die gern beispielhaft angeführte Eigenvermarktung einiger Künster und Autoren im Netz funktionieren, weil es noch wenige tun. Wenn sich aber mehr Künstler um die Aufmerksamkeit einer in etwa gleichbleibenden Anzahl vob Hörern/Nutzern/Käufern streiten, dann wird der einzelne Künstler weniger vom Kuchen abbekommen – das ist einfache Mathematik. Ob die erzielten Einnahmen dann noch für alle zum Leben reichen, bezweifle ich.

Die logische Folge zunehmender Eigenvermarktung ist, dass sich die Künstler und Autoren selbst um Marketing und Vertrieb kümmern müssen. Ja, genau das böse Marketing, was die Plattenfirmen bisher machen. Denn mit geistigen Werken ist es wie mit schnöden physischen Produkten: Mehr von ihrem Zeug verkaufen dann im Zweifel diejenigen, die das bessere Marketing machen (solange ihre Musik oder Schreibe das hergibt).

Nun ist aber dummerweise das Talent zur Vermarktung nicht analog zu dem für das Musikmachen oder Schreiben verteilt. Das gleiche gilt für das individuelle Budget, welches fürs Marketing ausgegeben werden kann. Oder anders ausgedrückt: Wer es selbst nicht kann oder will, beauftragt Leute, die mehr davon verstehen. Und das kostet Geld. Künster und Autoren, die sich ein angemessenes Vertriebs- und Marketingbudget leisten können, haben damit kein Problem – aber das sind nur wenige. Der Rest ist darauf angewiesen, dass jemand anderes in Vorleistung geht, sonst wird niemand etwas von der Musik und/oder Büchern erfahren. Und genau das machen heutzutage Verlage und Labels.

Zwischenfazit 1: Die Erstellung von Inhalten braucht grundlegende Voraussetzungen, welche nicht wegdiskutiert werden können. Auch wenn Verlage und Labels in Zukunft anders aussehen als heute und ihre Funktionen vielleicht von anderen erfüllt werden – irgendwer muss Produktion, Marketing, Vertrieb usw. übernehmen. Und im Zweifel vorfinanzieren. Das können die Urheber im Gegensatz zu manchen Darstellungen nicht leisten.

These 2: Es braucht neue Geschäftsmodelle für die digitale Inhaltevermarktung. Dabei darf aber der Verkauf von Inhalten nicht ausgeschlossen werden.

Es sind nun also schon mindestens zwei Parteien, die Einnahmen durch die Inhalte erwarten: Die Produzenten/Marketingler/Vertriebler, die in Vorleistung gegangen sind, und die Urheber selbst, welche schließlich von ihrer Arbeit leben wollen. Drei Modelle zur Erzielung von Einnahmen aus digitalen Inhalten werden üblicherweise in der Diskussion genannt:

  • Einnahmen aus dem Verkauf der Inhalte.
  • Einnahmen aus physischen Nebengeschäften wie Konzerte, Lesungen, Merchandising etc.
  • Einnahmen aus Werbung auf Webseiten, auf dem das Material zu finden ist.

Die dritte Variante wird häufig als das „neue Geschäftsmodell“ genannt. Dummerweise sagt die Erfahrung der letzten Jahre, dass das so einfach nicht funktioniert. Die Preise für Werbung im Web sind aufgrund des Überangebots von Werbeplätzen im Keller, sodass damit nur ganz große Webseiten profitabel arbeiten können. Eine auskömmliche Finanzerung von allen Künstlern oder Autoren durch die Partizipation an Werbeeinnahmen ist schlichtweg unmöglich.

Die zweite Variante mag für bekannte Künstler eine Lösung sein, für die überwiegende Anzahl von Autoren und Musikern ist sie es nicht. Denn die tauchen gerade vielleicht einmal im Impressum der Zeitung oder als Kürzel unter den Artikeln auf – eine denkbar schlechte Ausgangsposition für eine Vermarketung.

Bleibt also noch das gute alte Verkaufen der Inhalte. Und das geschieht zum überwiegenden Teil an Private, also genau die Zielgruppe, für die die Kopien frei sein sollen. Mit der Freigabe der Kopien würde dieser komplette Verwertungszweig wegfallen – denn wenn der private Austausch von Dateien frei ist, braucht es keine Kaufportale wie iTunes oder amazon & Co. mehr. Warum sollte ich Geld für Musik und eBooks ausgeben, wenn ich sie bei peer-to-peer Netzwerken umsonst bekomme?

Zwischenfazit 2: Die Freigabe von Kopien würde die größte Säule der Einnahmen komplett wegbrechen lassen und so die monitäre Verwertung von digitalen Inhalten sowohl für Verwerter als auch für Urheber bis auf Ausnahmen fast unmöglich machen – ohne die Aussicht auf alternative Verwertungsmodelle. Das würde gerade die Urheber extenziell treffen und kann nicht Sinn und Zweck einer Urheberrechtsreform sein.

Fazit: Die generelle Freigabe von Kopien schüttet das Kind mit dem Bade aus.

Die Kritik an den großen Verwertern digitaler Inhalte, der Musikindustrie und den Verlagen, mag berechtigt sein. Die Geschäftsmodelle sind teilweise veraltet und haben sich den neuen Gegebenheiten noch nicht angepasst. Dennoch sind die Funktionen dieser Institutionen die Voraussetzung (neudeutsch würde ich „Enabler“ sagen) dafür, dass viele Inhalte überhaupt erst erstellt und produziert werden. Die vollständige Freigabe der Kopie mag zunächst für die Gesellschaft förderlich sein, führt aber durch das Wegfallen der Monetarisierungsmöglichkeit dazu, dass Urheber sich das Urheben nicht mehr leisten können und somit Menge und Vielfalt insbesondere von Musik und Literatur dramatisch zurückgehen wird. Damit wird genau das Gegenteil davon erreicht, was eigentlich Ziel der Übung war.

Twitter kauft Posterous – um sich Google+ anzunähern?

Gestern gab Twitter bekannt, dass sie die Posterous geklauft haben (hier der Blogeintrag). Posterous zeichnet sich dadurch aus, dass man sehr einfach ein Blog aufsetzen und dies per E-Mail befüllen kann (Sascha Lobo hat das einmal als „Bloggen mit Stützrädern“ bezeichnet). Nun fragen sich viele, warum Twitter diesen Schritt vollzogen hat: So z.B. Nico Lumma (http://lumma.de/2012/03/12/twitter-kauft-posterous-auf-suche-nach-geschaeftsmodell/) oder Caschy (http://stadt-bremerhaven.de/twitter-kauft-posterous/). Die meisten Kommentatoren wundern sich über diesen Schritt und fragen sich, was er über Twitters zukünftige Strategie aussagt. Für mich sind es zwei Hauptaspekte:

  • Twitter braucht dringend fähige Entwickler. Mit dem Posterous-Team bekommt Twitter ein Team, welches sich genau in der Branche hervorragend auskennt und sofort einsatzfähig ist. Sehr wertvoll.
  • Twitter orientiert sich an Google+. Twitter hat gesehen, dass das Konzept von Google+, kurze Beiträge mit einer einfachen Kommentarfunktion zu verbinden, genau in die Lücke zwischen Twitter und Blogs trifft und genau deswegen auch so erfolgreich ist. Ich vermute stark, dass Twitter Posterous integrieren wird und so sich an das Google+-Konzept annähern wird. Bei G+ findet man häufiger den Wunsch, G+-Beiträge inklusive Diskussionen als eigenes Blog zu spiegeln. Genau das könnte eine Kombination aus Twitter und Posterous schaffen.

Ich bin gespannt, in welche Richtung sich das neue Tamdem entwickeln wird.

Zum Thema hier noch die Wortwolke aus den deutschsprachigen Treffern von heute morgen (Quelle: Sysomos MAP):

Wortwolke zu Twitter und Posterous

Die Filter-Bubble: Wir können die Blase nicht platzen lassen, aber ihre Form ändern

Werden wir im Netz durch Algorithmen gesteuert? Der amerikanische Politwissenschaftler Eli Pariser hat es griffig als „Blase“ bezeichnet: Wer im Netzt unterwegs ist, lebt sehr wahrscheinlich in einer „Filter-Bubble“. Die großen Anlaufstellen im Netz wie Google und Facebook verwenden Filter, um die Informationsströme einigermaßen handhabbar zu machen und uns die nach ihrer Ansicht relevanten Informationen zu präsentieren (sehr schön dargelegt in neun Minuten auf dem TEDx-Talk von Eli Pariser 2011). Die Filter schließen von unserem Nutzungsverhalten in der Vergangenheit auf unsere aktuellen Bedürfnisse und schneidern die Suchergebnisse oder den Stream so zu, dass wir nur noch Ergebnisse erhalten, die zu unseren Interessen passen. Andere Nachrichten und Meinungen werden ausgeblendet, womit wir uns in einer Blase oder einem Kreislauf der Selbstbestätigung befinden.

In letzter Zeit gab es einige gute und interessante Artikel zum Thema, so von Kathrin Passig und jetzt aktuell von Christoph Kappes. Letzterer brachte mich darauf, das Thema etwas mehr zu durchdenken und ich muss sagen, wir haben hier ein grundsätzliches Problem.

Es geht nicht ohne

Die naheliegendste Forderung ist auf den ersten Blick klar: Einfach alle Filter abschalten und z.B. bei Google „ungefilterte“ Suchergebnislisten anbieten. Das klingt logisch, ist es aber bei kurzem Nachdenken nicht – denn die Filterung passiert auf mehreren Ebenen, und sie lässt sich nicht einfach weglassen. Das beginnt schon bei der Auswahl der Treffer aus der Gesamtheit der erfassten Seiten: Wenn ich nach „Auto“ suche, wo soll der Suchbegriff vorkommen? Irgendwo auf der Seite, im Text (Body), in den Überschriften oder in den Seitenspalten? Sollen Ableitungen wie „Autos“ oder Wortteile wie „Automobil“ auch gefunden werden? Alle diese Entscheidungen beeinflussen bereits meine Treffermenge.

Der nächste Filter ist der Sortieralgorithmus. Da ich mir in der Regel aus Mangel an Zeit nicht alle Ergebnisse anschauen kann (und will), beschränke ich mich auf die ersten Suchergebnisse der auf Liste (bei Google erfolgen 90% der Klicks auf der ersten Suchergebnisseite). Somit wirkt die Sortierung wie ein Filter. Aber welcher „objektive“ Filter bringt mir gute Ergebnisse? Zeitpunkt der Veröffentlichung? Länge des Textes? Mir persönlich fallen spontan keine Kriterien ein, welche für die überwiegende Anzahl meiner Suchen passend wären.

Google & Co. gehen also zu recht davon aus, dass wir Filter benötigen, um Suchergebnisse nach Relevanz zu sortieren und anzuzeigen.

Vertrauen auf eine „Filterethik“?

Nun kann man argumentieren, dass man bisher ja auch ganz gut damit gefahren sei, den Aggregatoren die Auswahl der Suchergebnisse zu überlassen. Die Ergebnisse passen meist recht gut zum gesuchten Thema, warum also etwas ändern? Das ist eine Frage des persönlichen Anspruchs.

Wer darauf Wert legt, auch nur halbwegs neutral über die Geschehnisse auf der Welt informiert zu werden, der sollte sich Gedanken machen:

  • Die Aggregatoren wie Google und Facebook sind Unternehmen mit Gewinnerzielungsabsicht. Insofern haben sie ein Interesse daran, ihren zahlenden (Werbe-)Kunden ein möglichst passendes Umfeld zu bieten oder umsatzgenerierende Themen oder Seiten besonders prominent zu platzieren. Das muss nicht eine plumpe Bevorzugung der Webseiten von Zahlkunden sein – das ginge auch subtiler. Wenn bei der Suche nach „Ägypten“ Inhalte über touristische Attraktionen zuerst angezeigt werden, dann dürfte sich das über den dazugehörigen Anzeigenumsatz als lukrativer darstellen, als wenn hauptsächlich News angezeigt werden. Oder wer kann nachvollziehen, ob die Integration von AdSense-Werbung oder einer Facebook-like-Box auf einer Webseite diese nicht auch in der Suche oder im Stream nach vorne bringt, obwohl das inhaltlich keinerlei Relevanz hat?
  • Die Filter sind mittlerweile so komplex und vielstufig, dass sie kaum noch kontrollierbar sind. Ich bezweifle, dass es jemanden bei Google oder Facebook gibt, der die Wirkung der Änderung eines Filterparameters auf das Ergebnis korrekt vorhersagen kann. Kathrin Passig hat das in ihrem oben erwähnten Artikel schön beschrieben.
  • Die Filterregeln sind nicht öffentlich und werden es auch nicht. Google ist deshalb so groß geworden, weil der Page Rank Algorithmus so gute Ergebnisse hervorbrachte. Die Filter sind essenziell für den Geschäftserfolg, und deshalb sind sie aus gutem Grund Geschäftsgeheimnis. Das wird sich nicht ändern.
  • Es existiert ein Messproblem. Während man bei Facebook vielleicht noch sagen kann, die Anzeige aller Nachrichten der Freunde und abonnierten Seiten wäre die Messlatte, gibt es – wie oben schon dargelegt – keine „objektive“ Ergebnisliste bei Suchen. Woran soll also gemessen werden, ob „richtig“ gefiltert wird? Das kann nur geschehen, wenn ein Kriterienkatalog – im Prinzip ein neuer Filter – geschaffen wird, der dann als Maßstab dienen kann. Also eine Arbeit für jemanden, der gerne viel sinnlos arbeitet und nicht unbedingt positives Feedback von anderen braucht – sozusagen Sisyphos und Bahnchef in einem.

Aus meiner Sicht ist also das alleinige Vertrauen auf die Ethik der Anbieter leichtsinnig und eine öffentliche Kontrolle fast unmöglich. Was also tun?

Selbstbestimmung als Lösung

Bei der Diskussion der Filter-Bubble wird bisweilen gesagt, dass Filter ja etwas ganz natürliches, das Leben in einer Blase normal und damit nicht schlimm sei. Das ist im Prinzip richtig, denn schon unser Gehirn filtert aus den ankommenden Signalen die für uns in dieser Situation relevanten heraus, und wir entscheiden uns schon mit dem Kauf einer bestimmten Zeitung für einen Filter, den der Redaktion nämlich. Der Unterschied zum Web ist nur: Wir sind uns der Filter bewusst und können diese wechseln, wenn und wann wir wollen. Dazu reicht bisweilen schon eine Kopfdrehung oder ein Scharfstellen des Auges, oder eben ein Blick in das Konkurrenzblatt.

Im Web ist das anders: Wir bekommen etwas vorgesetzt, von dem wir gar nicht wissen, ob und wie es gefiltert wurde. Zudem können die Filter ohne unser Wissen wechseln. Zugespitzt könnte man sagen, die Nutzer ähneln der Menschheit in den Matrix-Filmen, die ihre Realität nur vorgespielt bekommt – oder wie Jim Carrey in der Truman Show, der komplett in einer simulierten Welt lebt.

Da Filter nicht abgeschaltet oder in ihren Tiefen kontrolliert werden können, sehe ich nur eine mögliche Lösung: Die Filter müssen auf einer bestimmten Ebene selbst gewählt werden dürfen. So wie man bei Google+ den Anteil seiner Kreise am Nachrichtenstrom regeln kann, sollten Filter zu- und abschaltbar sein. Das können beispielsweise Themen wie „Nachrichten“, „Politik“, „Reise“ oder „Technik“ sein. Jedes Zuschalten eines Filters oder jede neue Kombination der Filter ergibt eine eigene Sicht auf die Ergebnisse. Auch wenn diese Filter selbst aus den genannten Gründen nicht kontrolliert werden können, so ist doch eine gewisse Transparenz hergestellt und man hat als Nutzer Einfluss auf die Auswahl der Informationen.

Ich kann mir sogar Geschäftsmodelle vorstellen, die gegen Bezahlung individuelle Filter entwickeln, die dann auf einer oder mehrerer Suchmaschinen aufsetzen. Aber bis dahin dürfte noch ein Weg mit vielen Diskussionen zu gehen sein.

Heveling und die Kommentare zu den Kommentaren

Eigentlich dachte ich ja, das Thema Heveling ist nun durch, nachdem seine, sagen wir mal, pointierten Aussagen anfangs mit Fassungslosigkeit, dann mit Häme und schließlich mit Spieltrieb durch das Web 2.0 Dorf getrieben wurden. Gestern Abend las ich aber Kommentare, welche die ganze Angelegenheit als solche sehr tiefenentspannd kommentierten. So z.B. Peter Altmeier (Parlamentarischer Geschäftsführer der CDU/CSU-Bundestagsfraktion) auf Twitter sowie Mirko Lange auf G+. Tenor der beiden Kommentare: Da hat aber einer geschickt die Netzgemeinde „am Nasenring durch die digitale Arena führt“ (ML) und nun „bewerfen sich [die Kinder] begeistert mit Förmchen“ (PA).

Das macht mich wütend.

Denn hier hat nicht ein verwirrter PR-Berater in seinem Blog getrollt, sondern ein Mitglied des Bundestags, der zudem noch Mitglied des Rechtsausschusses, Mitglied der Enquête-Kommission Internet und Digitale Gesellschaft sowie stellvertretendes Mitglied des Kultur- und Medienausschusses ist, in einer angesehenen Wirtschaftszeitung einen Artikel veröffentlicht.

Zur Erinnerung: Ein Mitglied des Bundestags ist einer von den 620 Frauen und Männern, die das Unternehmen Deutschland mit knapp 320 Milliarden Euro Umsatz und über 81 Millionen Mitarbeitern führen. Deren Entscheidungen sind also nicht ganz unwichtig und von einiger Tragweite.

Mein Anspruch an einen MdB ist, dass er intellektuell, fachlich und charakterlich in der Lage ist, unser Land zu führen, auf Herausforderungen zu reagieren und für die Zukunft gut aufzustellen. Und ich vermute einmal, dass ich mit dieser Einstellung nicht alleine bin. Wenn mir nun jemand aus dieser Riege quasi mit Anlauf aufzeigt, dass er diese Anforderungen nicht erfüllt – und zudem noch auf einem Gebiet, was mir persönlich sehr wichtig ist-, dann bin ich sauer und bringe das auch zum Ausdruck. Und auch das geht anderen genauso, wie man das an den Kommentaren sehen kann. Das hat mit Förmchen werfen oder Nasenring nichts zu tun.

Übrigens denke ich, dass ich den Unterschied zwischen pointierter oder auch provozierender Argumentation und zusammenhanglosen Aneinanderreihen von wirren Aussagen erkennen kann. Im Gegensatz zu den mit Sprachwitz und Hintersinn verfassten Kolumnen von Sascha Lobo war der Beitrag von Herrn Heveling frei jeglicher inhaltlicher Argumente und sprachlich auf dem Niveau einer Kriegsberichtserstattung. Selbst bei mehrmaligem Lesen fand ich dort keinen Ansatz, eine Diskussion zum Sachthema zu führen.

Wer das wie Mirko Lange und Peter Altmeier als lustiges Spielchen eines MdB darstellt, den kann ich nicht mehr ernst nehmen. Schade eigentlich, denn ich hatte bisher eine gute Meinung von den beiden.

(Originalbeitrag auf Google+ mit Kommentaren: https://plus.google.com/104135034057747253597/posts/ZqRnA3za2zr)