Drücken Sie „Enter“, um den Inhalte zu überspringen

Facebooks Faktenchecker lenken vom wahren Problem ab

Die Whistlebowerin Frances Haugen zeigte, dass Facebook sehr wohl in der Lage war zu erkennen, dass die Algorithmen der Plattform gefährliche Inhalte fördern. Das Unternehmen versuchte allerdings nicht, das zu ändern, um die Werbeeinnahmen nicht zu gefährden, sondern zu maximieren.

Statt Hass zu reduzieren, verursachen die Algorithmen bewusst eine Polarisierung der Gesellschaft. Aber nicht aus dem Grund, aus dem die Politik mit “teile und herrsche” das gleiche praktiziert. Sondern durch das Zulassen der Erzeugung von Hass, Falschinformationen und einseitigen Berichten werden die Aktivitäten auf den Plattformen erhöht. Und höhere Klickzahlen bedeuten höhere Gewinne. Es war keine politische Agenda, welche vorangetrieben wurde, sondern eine, die den Profit maximieren sollte. Dass dadurch zum Beispiel Teenager, besonders junge Frauen, gefährdet wurden, weil sie keine, den Idealvorstellungen entsprechende Figur hatten, nahm Facebook in Kauf.

Dies kann man Dokumenten entnehmen, welche Whistleblowerin Haugen, der Jahre für das Unternehmen gearbeitet hatte, mit zehntausenden von Seiten öffentlich gemacht hat.

Selbst das Wall Street Journal konnte nicht anders, als das Beispiel der bewussten Inkaufnahme von psychischen Erkrankungen von Teenagern anzuprangern. Und Haugen trat mit den brisanten Informationen öffentlich in Kongressanhörungen, aber auch bei CBS auf.

Eigentlich sollte das nicht überraschen. Denn es war nicht das erste Mal, dass Facebook vorgeworfen wurde manipulativ, einseitig, profitorientiert zu agieren. Da gab es die Enthüllungen über die Datenfirma Cambridge Analytica im Jahr 2018. Auch UN-Ermittler hatten bereits festgestellt, dass auf Facebook Hass und die Menschen spaltende Gewalt gegen Rohingyas in Myanmar zugelassen worden war. Oder ein anderes Beispiel ist das Zulassen von gewaltfördernden Inhalten während der Unruhen in Muzaffarnagar, dem Indischen Bundesstaat Uttar Pradesh in den Jahren 2013 und 2017.

Warum ist dies eine große Neuigkeit, wo doch diese Fragen in Bezug auf Facebook immer wieder aufgeworfen wurden und noch deutlicher in den Vordergrund traten, nachdem die Enthüllungen über die Datenfirma Cambridge Analytica und Facebook im Jahr 2018 öffentlich wurden? Wussten wir nicht bereits, dass Facebook, WhatsApp und andere Social-Media-Plattformen heute zu mächtigen Instrumenten geworden sind, die dazu beitragen, Hass und spaltende Politik zu fördern? Haben die UN-Ermittler Facebook nicht für die völkermörderische Gewalt gegen Rohingyas in Myanmar verantwortlich gemacht? Waren nicht ähnliche Muster während der kommunalen Unruhen in Muzaffarnagar im indischen Bundesstaat Uttar Pradesh in den Jahren 2013 und 2017 zu beobachten?

Aber immer waren es Beschuldigungen, denen der Konzern auswich, sich entschuldigte, Veränderungen ankündigte, aber in Wirklichkeit ignorierte. Aber nun gibt es Beweise. Es gibt interne Dokument, die beweisen, dass Facebook ganz bewusst die Folgen akzeptierte, im Interesse von Klickzahlen.

Prabir Pukayastha beschreibt das Geschäftsmodell von Facebook treffend:

“Durch die Bevorzugung von Beiträgen, die das ‘Engagement’ fördern – d. h. das Lesen, Liken oder Beantworten von Beiträgen auf Facebook, WhatsApp und Instagram – sorgte Facebook dafür, dass die Menschen viel länger auf seiner Plattform blieben. Die Facebook-Nutzer konnten dann effektiver an die Werbetreibenden ‘verkauft’ werden, indem ihnen mehr Anzeigen gezeigt wurden. Das Geschäftsmodell von Facebook besteht nicht darin, Nachrichten zu verbreiten, freundliche Gespräche zwischen den Nutzern zu führen oder Menschen zu unterhalten. Es verkauft seine Nutzer an diejenigen, die ihnen Waren verkaufen können. Und wie Google weiß es viel besser, wer seine Nutzer sind und was sie kaufen könnten. Das ist es, was Facebook im Jahr 2020 98 Prozent seiner Einnahmen bescherte und es zu einem der sechs Billionen-Dollar-Unternehmen (Stand: September 2021) in Bezug auf die Marktkapitalisierung gemacht hat.”

https://countercurrents.org/2021/10/how-facebooks-algorithms-promote-hate-and-drive-toxic-content/

Aber Facebook hat nicht nur “versehentlich” toleriert, sondern aktiv nach gefährlichen Inhalten gesucht und sie gefunden. Haugen bestätigte, dass Facebook künstliche Intelligenz einsetzt, um solche Inhalte zu finden, während Facebook behauptet, dass die Organisation solche Inhalte nicht ausreichend indentifizieren könne. Aber als Ergebnis greifen die Algorithmen von Facebook diese gefährlichen Inhalte auf, welche extreme Gefühle verursachen, und streit und gesellschaftliche Spaltung verursachen.

Nun hatte Facebook darauf reagiert und so genannte Faktenchecker eingesetzt, um so genannte FakeNews und Hasspostings herauszufiltern. Das Ergebnis kennen wir als politische Zensur. Allerdings lief im Hintergrund nicht wirklich eine politische Agenda ab, sondern damit sollte nur die Politik zufriedengestellt werden, sondern, wie Purkayastha erklärt: “Der Treiber des Datenverkehrs oder das, was eine Person in ihrem Feed sieht – oder, wie Facebook es ausdrückt, womit sie sich beschäftigt – wird von Algorithmen bestimmt. Und diese Algorithmen waren darauf ausgerichtet, die giftigsten und spalterischsten Beiträge zu fördern, da dies das Engagement anzieht. Die Steigerung des Engagements ist die wichtigste Triebfeder für die Algorithmen von Facebook und macht jede Maßnahme zur Entgiftung der Inhalte zunichte.

Damit wird auch klar, dass sich alle Kritik auf die “Faktenchecker” konzentriert, diese aber in Wirklichkeit nur zur Ablenkung des wahren Problems, als Bauernopfer, hingehalten werden. Entscheidend sind die Algorithmen, welche das Engagement von Nutzer durch Förderung von Hass und Gewalt nutzen, um höhere Werbeeinnahmen generieren zu können.

Solange die Algorithmen nicht transparent gemacht werden, wird sich wohl nichts ändern. Im Moment werden die sozialen Medien durch Gesetze geschützt, welche ihnen die Hoheit darüber geben, Inhalte zu reglementieren. In Deutschland werden sie sogar dazu verpflichtet. Dabei liegt der Kern der Probleme in den Algorithmen.

Aus den Dokumenten von Haugen gehe hervor, so Haugen, dass Facebook hochrangige Nutzer auf eine “Whitelist” gesetzt hatte, deren Inhalte auch dann gefördert wurden, wenn sie gegen die Facebook-Richtlinien verstießen. Das wurde auch in Deutschland schon bemerkt. Und im Fall von Islamisten wunderten sich Nutzer, dass diese lange unkontrolliert werben konnten, während kleine Nutzer wegen lächerlicher Postings gelöscht wurden. Millionen dieser speziellen Nutzer konnten ungestraft gegen die Regeln von Facebook verstoßen.

Das ist aber noch nicht alles, was Haugens Fundgrube an internen Facebook-Dokumenten offenbart. In Anlehnung an die Forschungen von Zigarettenherstellern, wie man Kinder zum Rauchen bringen kann, hat Facebook die “Tweens“, d. h. Kinder im Alter von 10 bis 12 Jahren, untersucht. Es wurde erforscht, wie man die “Pre-Teens” für die Plattformen von Facebook gewinnen kann, um neue Kunden für die Plattformen zu gewinnen. Und das, obwohl ihre internen Untersuchungen gezeigt haben, dass die Facebook-Plattformen Magersucht und andere Essstörungen, Depressionen und Selbstmordtendenzen unter Jugendlichen fördern.

Das Ganze Dr. Jekyll und Mr. Hyde Spiel von Facebook hat auch einen Nebeneffekt: Je mehr echter Hass und Gewalt im Netz verbreitet wird, desto größer wird der Ruf nach Zensur und noch mehr Kontrolle. Was wiederum dem politischen Establishment in die Hände spielt. Was die Zögerlichkeit verstärkt, ernsthaft Transparenz zu verlangen.

Purkayastha fügt hinzu:

“All diese Fakten sollten dem Image von Facebook schaden. Aber es ist ein Billionen-Dollar-Unternehmen und eines der größten der Welt. Sein fetter Kassenbestand, gepaart mit der Macht, die es in der Politik ausübt, und seiner Fähigkeit, Wahlen zu ‘hacken’, bietet den Schutz, den das Großkapital im Kapitalismus genießt. Die Kardinalsünde, die das Großkapital nicht dulden darf, ist die Lüge gegenüber anderen Kapitalisten. Die internen Dokumente, die Haugen der US-Börsenaufsicht SEC vorgelegt hat, könnten endlich zu einer Gegenwehr gegen die Social-Media-Giganten und zu ihrer Regulierung führen – wenn schon nicht zu einer strengen Regulierung, so doch zumindest zu einigen schwachen Beschränkungen der Algorithmen, die den Hass auf diesen Social-Media-Plattformen fördern. Ein zehn Jahre altes Zitat ist angesichts der jüngsten Entwicklungen bei Facebook heute mindestens so aktuell wie damals, als der damals 28-jährige Silicon-Valley-Techniker Jeff Hammerbacher es erstmals sagte: ‘Die besten Köpfe meiner Generation denken darüber nach, wie man Menschen dazu bringt, auf Anzeigen zu klicken‘. Dies ist seit langem das Schlagwort, das den Marsch der Social-Media-Giganten zu ihren Billionen antreibt.”

https://countercurrents.org/2021/10/how-facebooks-algorithms-promote-hate-and-drive-toxic-content/

———————

Unterstützen mit einem Abohttps://www.patreon.com/frischesicht

Unterstützen Sie uns mit einer Spende: IBAN NL17BUNQ2045314502

Verwendungszweck: Spende

Sie können uns auch mit Bitcoin unterstützen

Dieses Bild hat ein leeres Alt-Attribut. Der Dateiname ist bitcoin-qr-logo.jpg
Dieses Bild hat ein leeres Alt-Attribut. Der Dateiname ist Bildschirmfoto-2020-12-09-um-19.13.38.png

Bitcoin Adresse: 35kAeRvsv5o6y3rCbWRUpsjw9dGyjBmPAp

Wir bedanken uns für Ihr Vertrauen und Ihre Unterstützung des freien Journalismus

————————

Die Redaktion ist um das Abbilden eines breiten Meinungsspektrums bemüht.

Meinungsartikel und Gastbeiträge müssen nicht die Sichtweise der Redaktion widerspiegeln!

Dieses Bild hat ein leeres Alt-Attribut. Der Dateiname ist shutterstock_1030401787.jpg

Dieses Werk ist unter einer Creative Commons-Lizenz 

(Namensnennung – Nicht kommerziell – Keine Bearbeitungen 4.0 International) lizenziert. Unter Einhaltung der Lizenzbedingungen dürfen Sie es verbreiten und vervielfältigen.

drucken
0 0 votes
Article Rating
Abonnieren
Benachrichtige mich bei
guest

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.

0 Comments
Inline Feedbacks
View all comments
© Frische Sicht 2020
0
Would love your thoughts, please comment.x