Emotionale Intelligenz im Zeitalter generativer KI

Research Bites - xm-institute - Dr. Oliver MackEmotionale Intelligenz (EI) ist ein Schlüsselkompetenzfeld in Führung, Zusammenarbeit und Kundenbeziehungen. Das von Goleman entwickelte Konzept gilt seit jeher als menschliche Domäne von Führungskräften und wird oft verwendet, um vor allem Führungskräfte im rasanten Fortschritt von KI zu beruhigen. Angesichts der schnellen Entwicklungen auf dem Fled generativer Künstlicher Intelligenz – insbesondere durch Large Language Models (LLMs) wie ChatGPT – stellt sich die Frage: Wie gut sind diese Modelle wirklich in der Lage, emotional intelligent zu handeln oder EI-relevante Aufgaben zu lösen? Die Untersuchung von Schlegel et al. (2025) liefert hierzu empirisch fundierte Antworten – und sie sind überraschend.

Hintergrund und Design der Studie

Die Studie verfolgte zwei zentrale Ziele:

  1. Leistungsprüfung: Können LLMs fünf etablierte EI-Tests besser lösen als Menschen?

  2. Generierungsfähigkeit: Können LLMs selbst valide EI-Testitems generieren?

Getestet wurden sechs aktuelle LLMs (u. a. ChatGPT-4, Claude 3.5 Haiku, Gemini 1.5 Flash) anhand von fünf psychometrisch validierten Tests (STEM, STEU, GEMOK-Blends, GECo Regulation & Management). Parallel entwickelte ChatGPT-4 neue Testversionen, die anschließend mit menschlichen Probanden in fünf Studien (N=467) validiert wurden.

Ausgewählte Ergebnisse der Untersuchung

LLMs lösen EI-Tests signifikant besser als Menschen

Alle LLMs übertrafen die menschlichen Mittelwerte mit hoher Effektstärke (durchschnittlich 81 % vs. 56 % richtige Antworten). Die leistungsstärksten Modelle lagen zwei Standardabweichungen über dem menschlichen Schnitt.

ChatGPT-4 kann valide EI-Testitems generieren

Die durch ChatGPT-4 erstellten Testversionen waren in Bezug auf Schwierigkeit weitgehend äquivalent zu den Originalen. Die Unterschiede in Klarheit, Realismus, Inhaltsdiversität und Validitätskennwerten waren statistisch geringfügig.

Einschränkungen der Studie

Trotz dieser Ergebnisse ergeben sich doch Einschränkungen:

  • Kontextualisierung fehlt: Tests basierten auf strukturierten Szenarien, nicht auf offenen Interaktionen.

  • Kulturelle Verzerrung: Die Tests und Trainingsdaten der LLMs sind westlich geprägt – Übertragbarkeit auf andere Kulturen unklar.

  • Black-Box-Problematik: Es bleibt bei LLMs unklar, wie die Modelle zu ihren Antworten gelangen – ein Risiko für Reproduzierbarkeit und Erklärbarkeit.

  • Prompt-Sensitivität: Kleine Änderungen im Prompt führen mitunter zu stark abweichenden Ergebnissen.

Bewertung

Die Studie sagt nicht aus, dass KI wirklich echte emotionale Intelligenz besitzt, sondern dass die KI in bekannten Tests zur EI besser abschneidet. Für Führungskräfte und Organisationsentwickler ist das Fazit dennoch klar:

LLMs sind heute bereits in der Lage, strukturierte emotionale Herausforderungen präzise zu analysieren und adäquate Reaktionen vorzuschlagen – konsistenter und in vielen Fällen treffsicherer als Menschen. Für den Einsatz in Führungskräfteentwicklung, Mitarbeiterfeedback, Kundeninteraktionen oder Change-Kommunikation eröffnen sich dadurch neue Spielräume. Auch wird in vielen Fällen der Aufbau künstlicher emotionaler Intelligenz vermutlich ausreichen, um mit Mitarbeitenden oder Kunden gut in Kontakt zu treten, besonders in einzelnen Transaktionen.

Aber: Technologische Leistungsfähigkeit ersetzt nicht echte menschliche Beziehungskompetenz. Was fehlt, ist eine echte „gefühlte Empathie“, eine umfassende Kontextsensitivität in dynamischen Dialogen und die Fähigkeit, wirklich zwischen den Zeilen zu lesen – zumindest aktuell. Deshalb bleibt der Mensch – zumindest mittelfristig – unersetzlich in Führungsrollen, wo emotionale Resonanz, Vertrauen und Intuition den Unterschied machen.

Erste Ideen zu Handlungsempfehlungen

Dennoch regt die Studie vielfältige Möglichkeiten an, KI entsprechend auch in Feldern der Führung einzusetzen. So z.B. kurzfrisitg LLMs gezielt als Sparringspartner in Trainings und als Assistenzsysteme in EI-relevanten Entscheidungsprozessen zu nutzen. Mittelfristig sich bei Psychometrie und Content-Entwicklung stärker durch KI unterstützen lassen – mit begleitender menschlicher Supervision. Und langfristige kulturelle und kontextuelle Anpassungsfähigkeit der KI ausbauen, insbesondere für den internationalen Führungseinsatz.

Wir am xm-institute beschäftigen uns intensiv mit der Anwendungsentwicklung neuer Leadership und Leadership-Development Methoden, wobei KI derzeit bereits einen wichtigen Platz im Dialog mit unseren Klienten und Klientinnen einnimmt. Wenn Sie in Kontakt kommen wollen, kontaktieren Sie uns gerne unter info@xm-institute.com. Wir freuen uns auf den Dialog von Mensch zu Mensch.

Quelle/ Referenz

Schlegel, K., Sommer, N. R., & Mortillaro, M. (2025). Large language models are proficient in solving and creating emotional intelligence tests. Communications Psychology, 3(1), 80. https://doi.org/10.1038/s44271-025-00258-x