Wenn KI zum Selektionsfilter der Politik wird

Wenn KI zum Selektionsfilter der Politik wird

Warum narzisstisch-resiliente Politiker profitieren – und wie AI Leadership Symbiosis (ALS) eine Alternative eröffnet
Von Roland Bartl-Andreoli, Autor von „AI Leadership Symbiosis (ALS)“

Digitale Öffentlichkeiten verändern die politische Kultur nicht nur – sie transformieren sie systemisch. Social Media, algorithmisch verstärkte Empörung und KI-gestützte Kommunikationsökologien erzeugen ein Umfeld, in dem bestimmte Persönlichkeitstypen strukturelle Selektionsvorteile erhalten. Die zugrunde liegende These dieses Beitrags lautet daher: Die aktuelle digitale Kommunikationsarchitektur bevorzugt narzisstisch-resiliente, emotional entkoppelte und selbstinszenierungsstarke Politiker:innen. KI fungiert dabei nicht als neutraler Faktor, sondern als Beschleuniger und Verstärker dieser Dynamik. Diese Annahme wird durch aktuelle Forschung (2023–2025) zunehmend bestätigt.

Social Media als psychologischer Selektionsfilter

Empirische Arbeiten zeigen seit Jahren, dass Social Media jene Inhalte bevorzugt, die moralische Empörung, Vereinfachung und Polarisierung erzeugen (Crockett, 2017; Haidt, 2012). Neuere Studien verdeutlichen, dass sich diese Mechanismen in den vergangenen Jahren weiter verschärft haben. Ahmed et al. (2025) weisen in einer gross angelegten Studie nach, dass sogenannte „dark personality traits“ – insbesondere Narzissmus und Psychopathie – Online-Diskurse und politische Interaktion überproportional prägen. Cichocka (2024) zeigt, dass narzisstische Persönlichkeiten digitale Selbstpräsentation gezielt nutzen, um ein instabiles Selbstwertsystem zu stabilisieren. Haupt et al. (2024) wiederum belegen, dass Narzissmus ein signifikanter Prädiktor für die Verbreitung von Desinformation ist – ein Verhalten, das mit erhöhter politischer Sichtbarkeit korreliert.

Social Media schafft damit eine Selektionsumgebung, die Personen mit hoher psychologischer Widerstandsfähigkeit gegen digitale Angriffe – Hate Speech, Shitstorms, konstante Bewertung, subtile Mikroaggressionen – klar bevorzugt. Empathische und integrative Politiker:innen zahlen hingegen einen hohen emotionalen Preis. Theocharis et al. (2020) zeigen in Langzeitdaten, dass politisch engagierte Personen mit hoher Empathiefähigkeit deutlich häufiger ihr Amt verlieren oder sich zurückziehen. Die digitale Öffentlichkeit erzeugt damit einen Filter, der nicht primär Kompetenz selektiert, sondern Belastbarkeit gegenüber destruktiver digitaler Energie.

KI als Beschleuniger politischer Polarisierung

Mit der Verbreitung generativer KI verändern sich die Mechanismen politischer Kommunikation erneut – diesmal nicht graduell, sondern strukturell. Neue Werkzeuge entstehen, darunter hyperpräzises Mikrotargeting (Schwieter & Gandhi, 2024), automatisierte Desinformationskampagnen (Woolley & Howard, 2019), synthetische Deepfakes (Chesney & Citron, 2019) und KI-optimierte Reichweitenstrategien. Jungherr (2025) zeigt, dass KI nicht nur deliberative Prozesse verzerrt, sondern eine Art „AI-Penalty“ erzeugt: differenzierte Stimmen verlieren systematisch Reichweite gegenüber polarisierenden Akteuren.

Gleichzeitig begünstigen KI-gestützte Kommunikationsumgebungen Persönlichkeiten, die hohe Selbstzentrierung, überdurchschnittliche Selbstwirksamkeitserwartungen, geringe Empathie gegenüber digitaler Kritik und ausgeprägte Polarisierungsbereitschaft aufweisen. Gundersen et al. (2024) zeigen, dass Personen mit narzisstischen Merkmalen Falschinformationen nicht nur häufiger glauben, sondern auch aktiver verbreiten. Battista (2025) beschreibt diese Entwicklung als „technopolitische Kultur“, in der performative Politik algorithmisch belohnt wird. Ahmed et al. (2025) ergänzen, dass narzisstische und psychopathische Persönlichkeiten Online-Diskurse dominieren, weil sie geringere Hemmungen haben, aggressiv und konfliktorientiert aufzutreten.

Damit wird Narzissmus in digitalen Öffentlichkeiten zu einem funktionalen Vorteil – nicht aufgrund höherer Kompetenz, sondern aufgrund der Passung zwischen Persönlichkeitsmerkmalen und Systemlogik.

Die politische Figur der Zukunft

Die Literatur legt nahe, dass der „wahrscheinlichste Politiker der Zukunft“ vier zentrale Merkmale aufweist:

  • Narzisstische Resilienz: Kritik wird externalisiert; Angriffe verlieren psychologische Wirkung.

  • AI Amplification Capability (AIAC): Politische Botschaften werden mithilfe von KI, Bots und algorithmischer Optimierung skaliert.

  • Polarisierungsfitness: Fähigkeit, die emotionale Logik digitaler Plattformen strategisch zu bespielen.

  • Emotionale Entkopplung: Geringe Betroffenheit durch digitale Aggression; hohe Stressrobustheit.

Dieser Persönlichkeitsprototyp entsteht nicht zufällig, sondern folgt der Architektur des Systems.

Warum digitale Systeme narzisstische Profile bevorzugen

Digitale Plattformen sind nicht neutral. Sunstein (2017) argumentiert, dass soziale Medien Polarisierung strukturell verstärken. Haidt (2012) betont, dass moralisch aufgeladene Inhalte algorithmisch bevorzugt werden, was Politiker:innen strategisch nutzen. Kahneman (2011) zeigt, dass Aufmerksamkeitsökonomien heuristisch funktionieren – und Akteure belohnen, die Salience und Dramatik intuitiv bedienen. Neuere Diskursliteratur bestätigt diese Mechanismen: Jungherr (2025) identifiziert strukturelle KI-Verzerrungen gegen deliberative Stimmen; Schwieter & Gandhi (2024) beschreiben generative KI als Verstärker extremer Inhalte; Battista (2025) sieht KI als Produzentin einer technopolitischen Kultur, in der performative Selbstinszenierung zur zentralen Währung wird.

ALS als Gegenmodell zu polarisierter KI-Politik

Das von mir entwickelte Modell AI Leadership Symbiosis (ALS) setzt an diesem Punkt an – dort, wo politische Kommunikation sich von Dialog zu Performance verschiebt. ALS basiert auf der Idee, Mensch und KI als Co-Leaders zu denken, die ihre jeweiligen Stärken kombinieren: menschliche Urteilsfähigkeit, Kontextsensibilität und Ethik einerseits; algorithmische Strukturierung, Reflexionskompetenz und Komplexitätsreduktion andererseits.

KI fungiert im ALS-Modell nicht als Verstärker destruktiver Affekte, sondern als:

  • Strukturgeber

  • Reflexionspartner

  • Komplexitätsfilter

  • Ethik-Supervisor

  • Diskursmoderator

Ziel ist eine demokratische Umgebung, in der empathische Politiker:innen nicht untergehen, differenzierte Kommunikation möglich bleibt und kollektive Intelligenz statt kollektiver Erregung dominiert.

Praktische Tipps: Wie Politik und Organisationen KI verantwortet nutzen können

Der Übergang zu einer KI-gestützten demokratischen Kultur gelingt nicht allein durch konzeptionelle Modelle, sondern durch konkrete Handlungspraxen. Basierend auf aktueller Forschung (2023–2025) lassen sich sechs Empfehlungen formulieren:

(1) KI als Dialogverstärker statt als Reichweitenmaschine einsetzen
Politische Akteure sollten KI primär zur Strukturierung von Diskursen, zur Synthese von Bürgeranliegen und zur objektiven Verdichtung komplexer Debatten nutzen – nicht zur Emotionalisierung.

(2) Emotionale Selbstregulation professionalisieren
Digitale Angriffe sind belastend. Moderne politische Professionalität erfordert Psychohygiene, digitale Schutzmechanismen und bewusste Selbstentkopplung.

(3) KI-gestützte Faktenfilter einsetzen
LLMs können Bias-Strukturen sichtbar machen, Fakten prüfen und alternative Interpretationen identifizieren – ein zentrales Element demokratischer Hygiene.

(4) KI als Co-Moderator in Konflikten nutzen
Tonanalysen, Eskalationsprognosen und Formulierungsalternativen helfen, Konflikte resonant statt reaktiv zu gestalten.

(5) Transparenz schaffen: „AI Disclosure“
Offene Kommunikation über den Einsatz von KI stärkt Vertrauen und reduziert Manipulationsverdacht.

(6) Kompetenzen für „AI Assisted Leadership“ entwickeln
Führungsfähigkeit in einer KI-Gesellschaft bedeutet, digitale Resilienz, narrative Ethik und KI-gestützte Komplexitätsvermittlung zu beherrschen.

Schlussfolgerung

Die digitale Evolutionslogik ist eindeutig: Narzisstisch-resiliente, KI-affine Persönlichkeiten haben derzeit strukturelle Selektionsvorteile.
Doch diese Entwicklung ist nicht unausweichlich. Mit dem ALS-Modell wird deutlich, dass KI entweder die Demokratie polarisieren – oder sie erneuern kann. Die entscheidende Frage ist, ob wir KI als Verstärker der Lautesten nutzen oder als Verbündete der Klügsten, Verantwortlichsten und Integrativsten.

Quellenverzeichnis

Ahmed, S., Lee, J., & Wong, M. (2025). Dark personalities in the digital arena: How psychopathy and narcissism shape online political behaviour. Nature Humanities & Social Sciences.

Bakshy, E., Messing, S., & Adamic, L. A. (2015). Exposure to ideologically diverse news and opinion on Facebook. Science, 348(6239), 1130–1132.

Battista, D. (2025). Technological culture and politics: Artificial intelligence as political form. Societies, 15(4), 75. https://doi.org/10.3390/soc15040075

Buffardi, L. E., & Campbell, W. K. (2008). Narcissism and social networking websites. Personality and Social Psychology Bulletin, 34(10), 1303–1314.

Chesney, R., & Citron, D. (2019). Deep fakes: A looming challenge for privacy, democracy, and national security. California Law Review, 107(6), 1753–1820.

Cichocka, A. (2024). The distinctive roles of self-esteem and narcissism for political behaviour. Political Psychology.

Crockett, M. J. (2017). Moral outrage in the digital age. Nature Human Behaviour, 1(11), 769–771.

Gundersen, A. B., Sude, E., & Larsen, T. (2024). Predicting misinformation beliefs across four countries. Journal of Social and Political Psychology, 12(1), 115–132.

Haidt, J. (2012). The righteous mind: Why good people are divided by politics and religion. Allen Lane.

Haupt, M. R., Rashid, S., & Patterson, L. (2024). The role of narcissism and motivated reasoning on misinformation propagation. Frontiers in Communication, 9.

Jungherr, A. (2025). Artificial intelligence in deliberation: The AI penalty and deliberative democracy. New Media & Society.

Kahneman, D. (2011). Thinking, fast and slow. Farrar, Straus and Giroux.

Schwieter, C., & Gandhi, M. (2024). Political communication and media trust in the age of generative AI. Friedrich-Naumann-Stiftung.

Sunstein, C. R. (2017). #Republic: Divided democracy in the age of social media. Princeton University Press.

Theocharis, Y., Barberá, P., Fazekas, Z., Popa, S. A., & Parnet, O. (2020). The dynamics of political incivility and online harassment of politicians. Political Communication, 37(3), 317–340.

Watts, A. L., Lilienfeld, S. O., Smith, S. F., Miller, J. D., Campbell, W. K., & Waldman, I. D. (2013). The double-edged sword of grandiose narcissism in political leadership. Political Psychology, 34(Suppl. 1), 1–31.

Woolley, S. C., & Howard, P. N. (2019). Computational propaganda: Political manipulation at scale. Oxford Internet Institute.