Kategorien
Gesellschaft & Politik

Ein digitaler Brandbeschleuniger

Inside Facebook – Die häßliche Wahrheit
von Sheera Frenkel und Cecilia Kang, aus dem Englischen übersetzt von Henning Dedekind, Marlene Fleißig, Frank Lachmann und Hans-Peter Remmler
S. Fischer, 384 S., 24,00 €

Einige Facebook-Mitarbeiter:innen konnten in Echtzeit verfolgen, wie die russischen Aktivitäten in dem sozialen Netzwerk kurz vor den US-Wahlen 2016 sprunghaft zunahmen. So beobachtete ein Mitarbeiter, wie ein russischer Hacker einem amerikanischen Journalisten bei den Demokraten geklaute Mails anbot – inklusive Tipps „wie die Geschichte um diese Mails gestrickt werden könnte.“
Nach der Wahl deckten interne Ermittler:innen auf: Das Netzwerk war im Wahlkampf zur Verbreitung von Falschinformationen benutzt worden. Allein die ‚Agentur für Internetforschung‘ – eine russische Trollfabrik – hatte im Wahlkampf 80.000 Beiträge gepostet, 3.300 Anzeigen geschaltet und damit mindestens 126 Millionen Amerikaner erreicht – mit einem lächerlich geringen Werbebudget von 100.000 Dollar.
Die internen Strukturen von Facebook waren zur Bewältigung einer solchen Lügenflut nicht ausgelegt; gleichzeitig gelangten Berichte über verdächtige Beobachtungen nicht zu den Verantwortlichen. Davon abgesehen „benutzten die Hacker Facebook genauso, wie es gedacht war: Sie vernetzten sich mit Menschen überall auf der Welt und chatteten mit Ihnen über gemeinsame Interessen, gründeten Facebook-Gruppen und nutzten sie, um ihre Ideen zu verbreiten.“
Die Geschichte des sozialen Netzwerks Facebook könne man leicht „als die eines auf Abwege geratenen Algorithmus erzählen.“ – Doch damit mache man es sich zu einfach: Es sind Entscheidungen von Menschen, die Facebook geprägt haben.
Stück für Stück, anhand von Unternehmensmitteilungen, Akten und Interviews, decken die amerikanischen Journalistinnen Sheera Frenkel und Cecilia Kang in ihrem Buch Inside Facebook – Die häßliche Wahrheit die „Geschichte des folgenreichsten gesellschaftlichen Experiments unserer Zeit“ auf und geben dabei „einen seltenen Einblick in ein Unternehmen, dessen erklärtes Ziel es ist, eine vernetzte Welt freier Ausdrucksmöglichkeiten zu schaffen, dessen Unternehmenskultur indes Verschwiegenheit und Loyalität verlangt.“

Die Grundidee von Facebook-Gründer Marc Zuckerberg war, ein digitales Schuljahrbuch zu schaffen – eine Idee, an der sich Anfang der Nullerjahre viele Programmierer:innen versuchten.
Das erste Projekt des Harvard-Studenten war ein Portal zur Bewertung von Kommilitoninnen. Mit diesem Experiment zog er rasch Ärger auf sich und musste es nach kurzer Zeit einstellen. Gleichzeitig lernte er dadurch, wie leicht Menschen Informationen über sich preisgaben, wenn sie einfach nur danach gefragt wurden.
Mit diesem Wissen begann er im Jahr 2004 mit der Programmierung eines „sozialen Netzwerkes.“ – Das sollte mehr sein als ein digitales Jahrbuch oder schwarzes Brett. Zuckerberg stellte sich einen Ort vor, an dem die User:innen „über ihre Hobbys und ihre Lieblingsmusik“ sprechen – und so in ungezwungener Atmosphäre möglichst viel von sich preisgeben und möglichst lange verweilen.
Der Erfolg gab ihm Recht: Bereits nach einem Jahr hatte Facebook über 5,5 Millionen Nutzer:innen – und wuchs rasant weiter. Zuckerberg hatte inzwischen Geldgeber gefunden und begann mit seinem Team an einer Vision zu arbeiten, die sich als Quantensprung erweisen sollte: dem Newsfeed.
Ursprünglich war Facebook nur eine Sammlung von Profilen, die man einzeln aufrufen musste. Der Newsfeed machte die Nutzung deutlich komfortabler: Nun bekamen die Nutzer:innen automatisch Updates von ihren ‚Freund:innen‘ präsentiert; auf einmal wurden zum Beispiel Änderungen des Beziehungsstatus den ‚Freund:innen‘ sofort angezeigt.
Die Nutzer:innen reagierten verärgert, Zuckerberg entschuldigte sich, kündigte Änderungen an und unternahm danach nichts – eine Strategie, die er im Laufe der Jahre weiter perfektionieren sollte.
Doch auch wenn Facebook immer weiter wuchs: Das Unternehmen schrieb weiterhin rote Zahlen. Daher holte Zuckerberg im März 2008 die Google-Managerin Sheryl Sandberg in sein Team; die hatte bei Google personenbezogene Werbung zu einem großen Geschäft gemacht – und sollte diesen Erfolg nun bei Facebook wiederholen.
Die Datenbestände, die Facebook bis dahin gesammelt hatte, eigneten sich hervorragend, um den Nutzer:innen personalisierte Werbung vorzusetzen, denn „Facebook kannte seine Nutzer und hatte sämtliche ihrer Daten an einem Ort zusammengefasst, so dass Werbekunden sich nicht auf Cookies verlassen mussten.“
Diese Datensammlung wurde bald durch eine weitere Funktion ergänzt: den Like-Button. „Die Funktion ermöglichte Einblicke in Nutzerpräferenzen in bislang unbekanntem Ausmaß und Leistungsvermögen.“

Trotzdem stockte der Ausbau des Werbegeschäftes anfangs, denn Zuckerberg beanspruchte einen Großteil der Programmierer-Kapazitäten, um seine wesentlichen Ziele zu erreichen: immer mehr Nutzer:innen für immer längere Zeit online zu bringen.
Auf längere Sicht erwies sich Sandbergs Ansatz, auf der Plattform personenbezogene Werbung zu schalten, als durchaus kompatibel dazu: „Das Werbegeschäft von Facebook basiert auf einer gefährlichen Rückkopplungsschleife: Je mehr Zeit die Nutzer auf der Seite verbrachten, desto mehr Daten griff Facebook ab.“
Diese Daten waren der Treibstoff, mit dem Facebook in den Jahren nach Sandbergs Anwerbung profitabel wurde: „Sandberg hatte das Datamining zu einem neuartigen Geschäft in großem Maßstab entwickelt, und das Geld floss in Strömen.“
Inzwischen expandierte Facebook auch in Entwicklungs- und Schwellenländer. Wie skrupellos das Unternehmen dabei vorging zeigen Frenkel und Kang am Beispiel von Myanmar: Dort war Facebook nach seiner Einführung im Jahr 2013 schnell zur beliebtesten Handy-App geworden. „In einem Land, in dem die militärische Führung die Zeitungen und das Radio kontrollierte, fühlte sich Facebook wie ein Bollwerk der individuellen Ausdrucksmöglichkeiten an.“
Doch zeigte sich schnell eine Schattenseite: Es wurden nicht nur unzensierte Nachrichten geteilt; buddhistische Extremisten nutzten das Netzwerk auch, um ungehindert Vorurteile und Hass gegen Myanmars muslimische Minderheit – die Rohingya – zu verbreiten.
Obwohl Facebook über die Jahre mehrfach und von verschiedenen Stellen informiert und gewarnt wurde, unternahm das Unternehmen nichts. Für die Moderation von 18 Millionen Menschen, die das Netzwerk intensiv nutzen und Dutzende verschiedener Sprachen sprechen, beschäftigte Facebook lange Zeit einen einzigen Mitarbeiter, der nur eine davon beherrschte.
Vielleicht machte man sich bei Facebook auch deswegen so wenig Gedanken um Myanmar, weil die Kennzahlen stimmten: Die Nutzer:innenzahlen wuchsen und die Nutzer:innen blieben länger im Netzwerk als je zuvor.
Selbst als nach dem Völkermord an den Rohingya im Jahr 2017 der internationale Gerichtshof Facebook um Kooperation bat, brauchte es viel Zeit und Mühe, das Unternehmen dazu zu bewegen.

Spätestens nach den US-Wahlen 2016 wurde mehr und mehr Beobachter:innen klar: Mit seiner Fixierung auf Expansion und Nutzeraktivität hat Zuckerberg ein Netzwerk geschaffen, das „dazu konzipiert [ist], immer da Öl ins Feuer zu gießen, wo ein Post Emotionen generierte, selbst wenn diese Emotion Hass war.“
Deswegen stand Facebook bei den folgenden US-Wahlen im Jahr 2020 und während der Corona-Pandemie besonders im Fokus der öffentlichen Aufmerksamkeit – und versagte erneut dabei, Desinformationen und Hass einzudämmen.*
Im Gegenteil: Zuckerberg kündigte sogar an, Posts und Werbeanzeigen von Kandidaten bei den bevorstehenden Wahlen seien von den normalen Community-Regeln ausgenommen und würden nicht mehr auf ihren Wahrheitsgehalt überprüft; stattdessen wurden sie lediglich mit einem Link zu einer seriösen Quelle versehen, den kaum jemand klickte.
Sicherlich steht dahinter die Furcht, das Geschäftsmodell könne durch eine Regulierung von Inhalten Schaden nehmen. Längst ist Facebook mit seinen weit mehr als zwei Milliarden Nutzer:innen zu einem Machtfaktor eigener Art geworden. „Als privates, weltweit tätiges Unternehmen wollte sich Facebook nicht auf geopolitische Scharmützel einlassen“ – und auf innenpolitische auch nicht.
Gleichzeitig gibt es für Zuckerbergs Unwillen einen zweiten Grund: Er ist Anhänger einer radikal-libertäre Ideologie und vertritt die Auffassung: Falsche und sogar böswillige Inhalte sollten nicht gelöscht, sondern durch Gegenrede richtig gestellt werden. Unfreiwillig liefert er mit Facebook ein Beispiel, wie (digitale) öffentliche Räume verkommen, wenn für ihre Nutzung keine verbindlichen Regeln existieren, die von einer starken Gemeinschaft gesetzt werden.
Dass ein anderes Facebook möglich wäre, zeigte sich nach dem Angriff auf das Kapitol vom 6. Januar 2021: Facebook modifizierte seinen Newsfeed-Algorithmus so, dass er seriöse Posts bevorzugte – Facebook wurde für kurze Zeit zu einem freundlicheren Ort. Doch weil die Verweildauer auf der Seite sank, beschloss Zuckerberg wieder zum alten Algorithmus zurückzukehren. „Der Algorithmus, das pulsierende Herz der Plattform, ist […] einfach zu mächtig – und zu lukrativ.“**

Anmerkungen

Das Bild zu diesem Beitrag stammt aus den Wikimedia Commons und wurde unter folgenden Lizenzangaben veröffentlich:

* Eine gute Übersicht darüber wie Facebook und andere soziale Netzwerke in Deutschland an der Eindämmung von Hass und Falschinformationen scheitern liefer die Journalisten Nicole Diekmann in Ihrem Buch Die Shitstorm-Republik, das ich in diesem Blog am 23.07.2021 besprochen habe; einen Link zu meiner Besprechung findest du [hier].

** Hier wäre noch anzumerken, dass ie US-Handelsbehörde und 48 Bundesstaaten im Dezember 2020 ein Verfahren zur Zerschlagung des Facebook-Konzerns eingeleitet haben – wie dieses Verfahren ausgehen wird ist im Augenblick offen.