Donnerstag, 21. November 2024

Facebook, Fakten-Checker und Zensur – wie unsere Wahrnehmung von Informationen manipuliert wird

Ein Gastbeitrag von Ines Laufer

Vor genau einem Jahr wurde mit großem PR-Brimborium verkündet, dass wir deutschen Facebook-User von nun an unsere eigenen Fakenews-Agenten hätten: Das „Recherchebüro“ Correctiv.

Ich gebe zu, dass ich seitdem ungeduldig darauf wartete, endlich einmal #Fakenews in meinem Newsfeed als solche markiert zu sehen – rein interessehalber. Doch es passierte NICHTS. Aus einem einfachen Grund:

Während in Amerika und in einigen anderen Ländern Facebooknutzer die Möglichkeit hatten, verdächtige Meldungen als mögliche #Fakenews zu melden, damit an externe Faktenchecker zur Überprüfung zu senden und dann – wenn mindestens zwei externe Checker eine Information als eindeutig „falsch“ (=Fakenews) bewerteten – die News mit einer dicken roten Flagge als „disputed“ („umstritten“) zu sehen bekamen, blieben wir in Deutschland davon völlig unberührt.

Laufer2-1

Der simple Grund ist., dass sich in Deutschland außer Correctiv niemand finden ließ, der die Rolle der Fakenews-Checker übernehmen wollte.

Das Vier-Augen-Prinzip, ein Posting erst dann als mögliche #Fakenews zu markieren, wenn mindestens zwei „unabhängige“ Checker es als falsch identifizierten, konnte also mangels eines zweiten Prüfers gar nicht angewandt werden.

Facebook schafft die Warnhinweise für #Fakenews komplett ab

Das erklärt auch, warum die Meldung, dass Facebook die #Fakenews-Warnungen zu Ende 2017 wieder abschafft von den deutschen Facebook-Nutzern kaum wahrgenommen wurde. Schließlich waren diese Warnungen hier nie eingeführt worden 😉

Mit einem beachtlichen Maß an Amusement lese ich jedoch die Begründungen für die Abschaffung dieser Hinweise – denn die waren mühelos vorhersehbar:

So dauert es natürlich seine Zeit, bis zwei Faktenchecker eine Meldung als #Fakenews bewerten und entsprechend kennzeichnen. Das heißt, ehe die Markierung „Achtung, #Fakenews!“ ankommt, können Tage vergehen – und bis dahin ist die Meldung bereits viral verbreitet und von tausenden Nutzern gelesen. Es bringt also wenig, einen viralen Artikel stark zeitversetzt als „Fakenews“ zu kennzeichnen.

Dann – und das weiß jedes Kind – sind es gerade die „verpönten“ Dinge, die besondere Aufmerksamkeit auf sich ziehen. Die rot markierten „Fakenews“-Artikel wären ohne diese Markierung wahrscheinlich schnell in den Feeds und damit aus den Augen der User verschwunden. Aber durch ihre Markierung zogen sie nun gerade die Aufmerksamkeit auf sich und erhöhten die Zahl der User, die sie anklickten, lasen – und glaubten.

Fazit: Mit der Markierung von #FakeNews wurde oft das Gegenteil erreicht.

Algorithmus und neues „Fake-News-Tool“ als wirksame Zensurwaffe

Schon im Mai 2017 kündigte Facebook an, künftig Links zu „unerwünschtem, störendem Content“ in den Newsfeeds zu unterdrücken und Meldungen, die als „Fakenews“ identifiziert wurden, über den Algorithmus so abzuwerten, dass ihre Sichtbarkeit in den Feeds eingeschränkt wird. 80% ihrer Reichweite sollen sie auf diese Weise verlieren.

Zu diesem Zweck wurde u.a. „künstliche Intelligenz“ mit einer „schwarzen Liste“gefüttert, die nach einer Überprüfung von „hunderttausenden verlinkten WebSeiten“ erstellt worden war. Welche WebSeiten auf dieser „schwarzen Liste“ stehen, hält Facebook geheim – aber es liegt auf der Hand, dass dort zu jedem Zeitpunkt auch WebSeiten landen können, die politisch nicht genehm sind.

Ein weiteres wichtiges UpDate gab es im August 2017, wo zunächst zu Testzwecken ein neues Fakenews-Tool „an eine Großzahl der deutschen Nutzer ausgespielt wird.“ Wie viele User das betrifft, verrät Facebook nicht.

Ich gehöre leider nicht zu den Auserwählten, denn in meinem Feed gibt es diese neue „Mehr zum Thema“-Funktion („related articles“) bislang nicht.

Viel Arbeit für die Fakten-Checker vom Correctiv

Ein Reporter des Vice-Online-Magazins Motherboard schaute sich die Funktionsweise dieses neuen Tools genauer an, mit dem vier Mitarbeiter von Correctiv sogenannte #Fakenews identifizieren und kennzeichnen sollen.

Laufer2-2

In eine einfache Tabelle (siehe Screenshot von Motherboard) werden von Facebook 600 Artikel eingespielt, die von Correctiv auf ihren Wahrheitsgehalt zu prüfen sind, die Priorität wird vermutlich über die Viralität berechnet, d.h. wie schnell und wie oft wird ein Artikel geteilt und kommentiert.

Das Urteil „wahr“ oder „falsch“ wird einfach angekreuzt, ein Link zu einem „richtigstellenden Artikel“, z.B. direkt aus der Correctiv-Redaktion eingefügt, fertig! Im Newsfeed wird den Usern dann die „Richtigstellung“ unter dem verlinkten Beitrag angezeigt, wie dieses Beispielfoto zeigt:

Laufer2-3Interessant ist, dass Facebook streng geheim hält, welcher Algorithmus bestimmt, was für Artikel überhaupt in diese Tabelle eingespielt werden!

Denn im Gegensatz zum bisherigen Verfahren, handelt es sich nicht um Beiträge, die von Usern als mögliche Fakenews gemeldet wurden, sondern sie werden von Facebooks „künstlicher Intelligenz“ eigenständig ausgesucht, z.B. aufgrund von Trigger-Wörtern oder der Herkunft (d.h. von welcher Webseite stammt der Link), die beliebig von Facebook vorgegeben werden können!

Auf diese Weise könnten auch problemlos politische Reizwörter“, wie z.B. „Islam“, „Flüchtlinge“, „Flüchtlingskriminalität“, sowie regierungs- und islamkritische Webseiten systematisch in den Algorithmus eingespeist und dann mit einem einfachen „Kreuzchen“ abgewertet oder „unsichtbar“ gemacht werden. Das perfekte Zensur-Tool!

Welche Sorgfalt aufgebracht werden kann, wenn pro Mitarbeiter innerhalb kürzester Zeit 150 Artikel auf ihren Wahrheitsgehalt zu prüfen und das Kreuzchen an der richtigen Stelle zu setzen haben, kann sich jeder vorstellen – und auch, wie sich die politische Ausrichtung des Correctivs auf die Entscheidungen auswirken wird.

Ähnliches Prinzip in den Facebook-Löschzentren

Im Oktober 2017 führte Hanno Vollenweider/die Unbestechlichen ein bemerkenswertes Interview mit Melanie C., einer ehemaligen Mitarbeiterin des Facebook-eigenen-Löschzentrums in Berlin, aus dem hervorgeht, dass dort mit ähnlichen Tools gearbeitet wird.

Denn, so Melanie, die potentiellen „Hate-Speech“-Beiträge, die gelöscht werden sollten, wurden nicht etwa durch Meldungen von Usern an die Löschzentrale geliefert, sondern ebenfalls maschinell, durch Algorithmen aufgrund von Trigger-Wörtern vorgegeben!

„Da ist es dann auch schon mal vorgekommen, dass die einen angeraunzt haben, wenn man Beiträge nicht entfernt hat, die das System – also der Algorithmus – aufgrund der benutzen Wörter als potentielle Fake oder Hassnachricht rausgesucht hat, die man aber persönlich für eigentlich eher harmlos oder halt einfach normale Berichterstattung hielt.“

Die Aufgabe von Melanie bestand darin, die vorgegebenen Beiträge weitgehend ungeprüft (!) zu löschen bzw. „unsichtbar zu machen“ durch algorithmische Abwertung.

Drei Viertel der gelöschten Inhalte waren keine FakeNews

Um echte Hassrede, echte Verstöße gegen die Gemeinschaftsstandards oder gar echte rechtswidrige Äußerungen ging es jedoch nur am Rande – sondern vielmehr um die Durchsetzung einer politischen Agenda, z.B. zu verhindern, dass die AfD ein hohes Wahlergebnis bei der Bundestagswahl erzielt. Und den Kampf gegen die AfD haben sich „zufällig“ auch die Fakten-Checker vom Correctiv auf die Fahnen geschrieben…

„Da ging es dann eigentlich auch nicht um irgendwelche Fake-News, sondern um Sachen, die wirklich passiert sind.

Wir mussten dann z.B. die Berichterstattung von rechten Seiten über so Sachen wie den Mord und den Prozess an der Studentin aus Stuttgart, also der Maria, die von dem Flüchtling umgebracht und vergewaltigt wurde, oder den Macheten-Vergewaltiger aus Bonn und all diese krassen Sachen, die Flüchtlinge angestellt haben, zurückhalten, damit sich nicht noch mehr auf die Seite der Rechten stellen.

Auch Sachen, die Kritik z.B. an der Europäischen Union waren und auch Kritik an der Regierung, nicht nur wegen der Flüchtlingspolitik, sollten wir, so gut es geht, filtern

Mir sind viele der Sachen, die wir zensieren mussten, auch am Abend noch durch den Kopf gegangen. Dann habe ich angefangen zu recherchieren. Ich bin selber auf „DieUnbestechlichen“, „JournalistenWatch“, „Opposition24“ – und wie sie alle heißen gegangen – und habe die Sachen nachrecherchiert. Zu mehr als drei Viertel der Artikel habe ich Beweise gefunden, dass das keine Fake-News sind.“

Systematische Unterdrückung missliebiger politischer Meinungen – Deutschland am stärksten im Fokus der Facebook-Zensur: 16% der Lösch-Mitarbeiter kümmern sich um 1,25% der Nutzer

Wir erfahren von Melanie ebenfalls, dass eine Liste mit 300, überwiegend Seiten, die kritisch über die Regierung oder zum Beispiel Flüchtlinge und Kriminalität von Flüchtlingen und Ausländern berichten existierte, deren Inhalte „bevorzugt“ zu zensieren waren.

Manche dieser Seiten wurden und werden systematisch mit einem sogenannten Shadow-Ban belegt, d.h. Beiträge dieser Seiten werden allgemein „unsichtbar“ gemacht, indem sie in den Newsfeeds der User nicht angezeigt werden! Das perfide daran ist, dass die User diese Form der Zensur naturgemäß gar nicht bemerken (können).

Darüber hinaus gibt es eine „schwarze Liste“ mit tausenden deutschen Usern, die dadurch aufgefallen sind, dass sie rechte Inhalte posteten. Nur ein Bruchteil dieser User hat tatsächlich gegen die Facebook-Bestimmungen verstoßen, die z.B. eine Löschung des Users rechtfertigen könnte. Bei denen, die eigentlich nichts Verbotenes posten, sondern nur Sachen, die halt rechts sind, werden folgende Methoden aufgefahren:

„Wir haben dann diese Leute versucht, sehr aktiv einfach – ich nenne es mal „weg zu mobben“ –, indem wir denen immer wieder das Konto gesperrt haben oder Funktionen eingeschränkt wurden, dass sie z.B. mal für 30 Tage gesperrt waren oder 7 Tage nichts mehr posten konnten.

Wenn ich nun bedenke, dass ich zu den ersten deutschen Facebook-Usern überhaupt gehörte, seit 2008 auf dieser Plattform aktiv bin, während der gesamten Zeit nicht einmal gesperrt wurde – dafür aber seit Mai 2017 ganze vier Monate – also 1/3 des Jahres – „kaltgestellt“ wurde, und zwar stets für Äußerungen, die vollumfänglich von der Meinungsfreiheit gedeckt waren, dann ist mir klar, dass mein Name auf dieser ominösen Liste stehen muss, ebenso wie die Namen von anderen kritischen, befreundeten Usern.

Eine Auswahl von harmlosen Meinungsäußerungen, für die User gesperrt werden, sowie ein paar echte Beispiele für Volksverhetzung, antisemistischen Hass und Beleidigung, die wiederum Facebook nicht löscht, gibt es auf der Wall of Shame des prominenten Medienanwalts Joachim Nikolaus Steinhöfel, der gerade gerichtliche Schritte eingeleitet hat gegen Facebook wegen rechtswidriger Löschung zulässiger Inhalte und wegen einer recht neuen Rechtswidrigkeit, nämlich der heimlichen Löschung von Abonnenten bei reichweitenstarken, kritischen Usern.

Fazit: 

Die in dem Artikel beschrieben technischen Tools, die von Facebook dafür bereitgestellt werden, eignen sich hervorragend, um staatliche Zensurinteressen mit minimalem Aufwand durchzusetzen.

Durch den gezielten Einsatz von Algorithmen, die sich durch die Einspeisung beliebiger Triggerbegriffe definieren lassen, wird die Sichtbarkeit und damit Wahrnehmung kritischer Beiträge manipuliert, ohne dass die Nutzer es bemerken oder nachweisen könnten.

Die personellen Kapazitäten, die Facebook dafür auf dem deutschen Markt einsetzt, sprechen für sich:

Die deutschen Facebook-Nutzer machen mit 25 Millionen monatlich aktiven Usern (2017) gerade einmal 1,25% der weltweit monatlich aktiven Facebook-Nutzer aus (rd. 2 Milliarden).

Um die Löschung deren – oft nur politisch missliebiger – Meinungsäußerungen kümmern sich aber 16% – der weltweit eingesetzten Facebook-Lösch-Mitarbeiter, also mehr als jeder sechste (1.200 von 7.500)!

Da es keinerlei Beleg dafür gibt, dass ausgerechnet die Deutschen überdurchschnittlich oft gegen die „Facebook-Regeln“ verstoßen, sodass so eine verhältnismäßig große Lösch-Armada gerechtfertigt wäre, liegt die Vermutung nahe, dass hier lediglich der Druck, den die Regierung ausübt, umso höher ist (z.B. durch das NetzDG).

Und: Die deutschlandweit einzige Institution, die für Facebook zur Überprüfung möglicher #Fakenews herangezogen wird, Correctiv, ist weder finanziell noch inhaltlich „unabhängig“, sondern verfolgt eine klare politische Agenda.

In meinem nächsten Artikel, werde ich deshalb der Frage nachgehen, wer denn eigentlich die Fakenews Fakten der Fakten-Checker checkt…

***

Fotos: Facebook (2), Screenshot © Motherboard

****

Sie wollen Philosophia Perennis unterstützen?

[paypal_donation_button]

… oder auf Klassische Weise per Überweisung:

IBAN: DE04 3002 0900 0803 6812 81 
BIC: CMCIDEDD – Kontoname: David Berger – Betreff: Spende PP

David Berger
David Bergerhttps://philosophia-perennis.com/
David Berger (Jg. 1968) war nach Promotion (Dr. phil.) und Habilitation (Dr. theol.) viele Jahre Professor im Vatikan. 2010 Outing: Es erscheint das zum Besteller werdende Buch "Der heilige Schein". Anschließend zwei Jahre Chefredakteur eines Gay-Magazins, Rauswurf wegen zu offener Islamkritik. Seit 2016 Blogger (philosophia-perennis) und freier Journalist (u.a. für die Die Zeit, Junge Freiheit, The European).

Trending

VERWANDTE ARTIKEL