Soziale Medien

Konservative teilen oft ungelesene Fakenews und Verschwörungstheorien

 Robert Klatt

Nutzer teilt einen ungelesenen Inhalt auf Facebook )kcotS ebodAtiwihcaw(Foto: © 

Viele Menschen teilen auf Facebook Nachrichten, darunter auch Fakenews und Verschwörungstheorien, obwohl sie die Inhalte zuvor nicht gelesen haben. Besonders oft werden falsche Inhalte, ohne diese zuvor gelesen zu haben, von Konservativen geteilt.

University Park (U.S.A.). In den sozialen Medien werden Nutzer mit immer mehr Inhalten überhäuft. Viele Menschen lesen deshalb oft nur die Überschrift oder Einleitung eines Artikels, bevor sie sich dem nächsten Inhalt zuwenden. Wissenschaftler der Pennsylvania State University (Penn State) haben nun eine Studie publiziert, laut denen viele Menschen auf Facebook Inhalte trotzdem teilen, obwohl diese den Artikel zuvor weder angeklickt noch gelesen haben.

Laut der Publikation im Fachmagazin Nature Human Behaviour haben die Forscher für ihre Studie insgesamt 35 Millionen Nachrichtenlinks analysiert, die im Zeitraum von 2017 bis 2020 öffentlich auf Facebook geteilt werden. Über drei Viertel dieser Inhalte wurden von den Nutzern, die sie über ihr Profil geteilt haben, zuvor nicht geöffnet. Besonders hoch war der Anteil der geteilten, aber nicht zuvor gelesenen Nachrichten, bei politischen Inhalten, darunter auch Nachrichten, die Fakenews und Verschwörungstheorien beinhalten. Es wird somit deutlich, dass viele Nutzer in sozialen Medien sich nur mit der Überschrift auseinandersetzen, Inhalte aber nicht prüfen, bevor sie diese weiterverbreiten.

„Es war eine große Überraschung, dass über 75 % der auf Facebook geteilten Links ohne vorheriges Anklicken geteilt wurden. Ich hatte angenommen, dass Menschen, die Inhalte teilen, diese auch lesen und darüber nachdenken – dass sie den Inhalt unterstützen oder befürworten. Dass die Mehrheit der geteilten Links jedoch ohne jegliche Auseinandersetzung verbreitet wird, war eine erschreckende Erkenntnis.“

Umfassende Daten von Facebook

Die Wissenschaftler konnten für ihre Studie auf umfassende Daten von Facebook zurückgreifen, die sie von Social Science One, einem Forschungsverbund unter der Leitung des Instituts für Quantitative Sozialwissenschaften der Harvard University, erhalten haben. Diese Daten enthalten unter anderem den sogenannten „Affinity-Score“ für politische Positionen. Es war somit möglich, die Nutzer in die fünf Kategorien sehr liberal, liberal, neutral, konservativ und sehr konservativ einzuteilen. Zudem haben die Forscher die geteilten Nachrichten mit einer Künstlichen Intelligenz (KI) auf einer Skala von sehr liberal bis sehr konservativ eingeteilt.

„Wir haben eine neue Variable für die politische Ausrichtung der Inhalte erstellt, basierend auf 35 Millionen Facebook-Beiträgen während der Wahlsaisons über einen Zeitraum von vier Jahren. Dieser Zeitraum bietet eine aussagekräftige Grundlage, um Muster im Nachrichtenkonsum sozialer Medien auf Makroebene zu verstehen.“

Die Analyse zeigt klar, dass Nutzer am ehesten politische Inhalte ungelesen teilen, wenn diese stark mit ihrer persönlichen politischen Position übereinstimmen. Dies trifft auf alle Gruppen, also sowohl liberale, neutrale und konservative Personen, zu.

„Nutzer teilen Inhalte oft, weil diese oberflächlich betrachtet ihrer politischen Ideologie entsprechen, ohne zu merken, dass sie möglicherweise falsche Informationen verbreiten.“

Daten eines Faktenprüfdienstes zeigen zudem, dass 2.969 der analysierten Links Fakenews oder Verschwörungstheorien beinhalten. Diese Links werden insgesamt 41 Millionen Mal von Nutzern geteilt, die die Inhalte zuvor nicht angeklickt haben. Ein Großteil der falschen Inhalte stammt von konservativen Nachrichtenmedien (82 %) und wurde von konservativen Nutzern geteilt (76,94 %) während liberale Nutzer an den geteilten falschen Inhalten einen deutlich kleiner Anteil hatten (14,25 %).

Informationsflut überlastet Nutzer

Laut den Wissenschaftlern könnte der Grund für die hohe Anzahl an ungelesen geteilten Inhalten die Informationsflut in den sozialen Netzwerken sein. Die Studie umfasst lediglich Daten von Facebook. Die Forscher sind jedoch überzeugt davon, dass die Situation in anderen sozialen Netzwerken ähnlich ist.

„Der Grund dafür könnte sein, dass Menschen von Informationen überflutet werden und nicht innehalten, um sie zu reflektieren. In einer solchen Umgebung haben Fehlinformationen eine größere Chance, viral zu gehen. Wir hoffen, dass unsere Studie dazu beiträgt, dass Menschen medienkompetenter, digital versierter und bewusster im Umgang mit geteilten Inhalten werden.“

Um die Anzahl der ungelesen geteilten Inhalte zu reduzieren, empfehlen die Forscher eine Anpassung der sozialen Netzwerke. Denkbar ist etwa ein Hinweis, der die Nutzer vor dem Teilen dazu auffordert, den Artikel tatsächlich zu lesen.

„Das oberflächliche Verarbeiten von Überschriften und Kurztexten kann gefährlich sein, wenn falsche Daten geteilt und nicht hinterfragt werden. Nutzer könnten glauben, dass Inhalte durch das Teilen in ihrem Netzwerk bereits geprüft wurden, was jedoch nicht der Fall ist. Wenn Plattformen Warnhinweise einführen und die Gefahr falscher Inhalte betonen, könnte dies helfen, das Bewusstsein der Nutzer zu schärfen.“

Nature Human Behaviour, doi: 10.1038/s41562-024-02067-4

Spannend & Interessant
VGWortpixel