Misinformation on social media : Investigating motivated reasoning through an identity-protection model

In recent years, the unprecedented dissemination of misleading or false information on social media platforms has become a public concern by posing fundamental threats to democratic political systems. The increased dissemination of such misinformation has intensified research efforts to understand how psychological mechanisms facilitate this misinformation dissemination. One answer comes from motivated reasoning, suggestingthat information is not always processed evenly but to maintain or protect existing attitudes, beliefs, or identities (Kunda, 1990). For the context of misleading or false information, motivated reasoning proposes that content confirming a person’s view (congruent) is quickly passed on without further questioning, whereas content that contradicts a person’s view (incongruent) is more likely to be identified as false.

This cumulative doctoral dissertation aims to further explore the relationship of misinformation on social media with motivated reasoning. To this end, two broader strategies are applied: First, the empirical effects of motivated reasoning on misinformation sharing are scrutinized. In Study 1, it is tested whether motivated reasoning can explain sharing of hyper-partisan news content on Twitter. By collecting data directly from Twitter, this observational study confirms a sharing process driven by motivated reasoning. Similarly, Study 2 and 3 tested whether motivated reasoning can explain users’ perception and engagement with automated accounts, so-called social bots, on Twitter. Results of both studies indicated that users’ perceptions are, as predicted, biased. Users perceive congruent accounts as more human-like and incongruent accounts as more bot-like. In addition, while users mostly ignore incongruent accounts, independent whether bot or human-run, congruent accounts that behave like social bots are less likely to perceive engagement.

Consolidating the effects of motivated reasoning through empirical data in the first three studies, in a second step, the underlying psychological processes of motivated reasoning are investigated in Study 4 and 5. In both studies, an identity-centric model of motivated reasoning is examined, focusing on identity threat/affirmation and cooccurring emotional reactions that contribute to motivated reasoning. The findings of both studies yield mixed results. While both studies show that emotions are involved in identity-protection cognition, clear inferences about the precise role of emotions cannot be made. Summarizing all results, a refined model of motivated reasoning as identity-protection cognition is introduced.

Taken together, the results of all five studies extend previous findings of motivated reasoning and contribute to a better understanding of how motivated reasoning affects misinformation on social media.

Die Verbreitung irreführender oder falscher Informationen auf Social-Media-Plattformen wurde in den letzten Jahren zunehmen politisch und öffentlich diskutiert, da sie demokratische Systeme grundlegend bedroht. Diese zunehmende Verbreitung solcher Fehlinformationen hat Forschungsbemühungen intensiviert, die darauf abzielen zu verstehen, wie psychologische Mechanismen diese Verbreitung von Fehlinformationen erleichtern. Eine Theorie, dies zu erklären, ist motivierte Kognition. Mit motivierter Kognition wird eine Informationsverarbeitung bezeichnet, deren Ziel es ist, bestehende Meinungen zu bestätigen, anstatt akkurate Schlüsse zu ziehen (Kunda, 1990). Für den Kontext von Fehlinformationen bedeutet dies, dass Inhalte, die die Meinung einer Person bestätigen (kongruent), schnell ohne weitere Hinterfragung weitergegeben werden, während Inhalte, die der Meinung einer Person widersprechen (inkongruent), eher als falsch identifiziert werden.

Diese kumulative Dissertation hat zum Ziel den Zusammenhang von Fehlinformationen in sozialen Medien mit motivierter Kognition zu untersuchen. Zu diesem Zweck wurden zwei Strategien verfolgt: Zunächst wurden die Auswirkungen motivierter Kognition auf das Teilen von Fehlinformationen auf Social Media untersucht. In Studie 1 wurde getestet, ob motivierte Kognition das Teilen von hyper-partisan Nachrichteninhalten auf Twitter erklären kann. Dazu wurden Twitter-Daten ausgewertet, die einen Sharing-Prozess angetrieben durch motivierte Kognition bestätigen. In Studie 2 und 3 wurde getestet, ob motivierte Kognition die Wahrnehmung von und die Interaktion mit automatisierten Accounts, sogenannten Social Bots, auf Twitter erklären kann. Die Ergebnisse beider Studien zeigten, dass die Wahrnehmungen der Nutzer, wie vorhergesagt, verzerrt sind. Benutzer nehmen kongruente Konten als menschenähnlicher und inkongruente Konten als Bot-ähnlicher wahr. Während Benutzer inkongruente Konten, unabhängig davon, ob sie von Bots oder Menschen geführt werden, meist ignorieren, nehmen kongruente Konten, die sich wie soziale Bots verhalten, weniger wahrscheinlich Engagement wahr.

Durch die empirische Bestätigung des Einflusses von motivierter Kognition der ersten drei Studien, wurden in einem zweiten Schritt in Studie 4 und 5 die zugrunde liegenden psychologischen Prozesse von motivierter Kognition untersucht. In beiden Studien wird ein identitätszentriertes Modell der motivierten Kognition mit Fokus auf Identitätsbedrohung/-bestätigung und gleichzeitig auftretende emotionale Reaktionen getestet. Die Ergebnisse beider Studien führen zu gemischten Ergebnissen. Obwohl beide Studien zeigen, dass Emotionen an der Identitätsschutzkognition beteiligt sind, können keine klaren Rückschlüsse auf die genaue Rolle von Emotionen gezogen werden.

Zusammengenommen erweitern die Ergebnisse aller fünf Studien frühere Erkenntnisse über motivierte Kognition und tragen zu einem besseren Verständnis dafür bei, wie motivierte Kognition Fehlinformationen in sozialen Medien beeinflusst.

Zitieren

Zitierform:
Zitierform konnte nicht geladen werden.

Rechte

Nutzung und Vervielfältigung:
Alle Rechte vorbehalten