Nach oben scrollen
© 2019, adribo     |     Modernes Konfliktmanagement.     |     urid

KI-Empathie in der Mediation.Wenn Algorithmen Mitgefühl zeigen


Michael Lardy - 21. August 2025

Empathiefähigkeit, eine zentrale Kernkompetenz in der Mediation, ist nicht lediglich ein Persönlichkeitsmerkmal, sondern erfüllt eine methodische Funktion: Sie schafft Vertrauen, ermöglicht Perspektivübernahme und bildet die Grundlage für konstruktive Kommunikation zwischen Konfliktparteien. Ohne ein Mindestmaß an empathischer Resonanz fällt es schwer, einen geschützten Raum herzustellen, in dem Interessen und Emotionen offen besprochen werden können1.
Mit dem Aufkommen leistungsfähiger KI-Systeme, insbesondere großer Sprachmodelle (Large Language Models = LLM) wie ChatGPT, Gemini oder Claude, stellt sich zunehmend die Frage, ob und in welchem Umfang diese Systeme eine vergleichbare Empathiefähigkeit entwickeln oder zumindest simulieren können2. Diese Frage berührt das professionelle Selbstverständnis eines Berufsstandes, der bisher auf den Menschen als Wesen mit der einzigartigen Fähigkeit zu Mitgefühl und Einfühlungsvermögen fokussiert war3.
In den vergangenen Jahren hat sich die Forschungslage zu diesem Thema sehr dynamisch entwickelt: zahlreiche Studien konnten nachweisen, dass LLMs in Testsituationen emotionale Zustände identifizieren, benennen und angemessen darauf reagieren können – teils sogar besser als menschliche Vergleichsgruppen4. Andere Untersuchungen warnen hingegen vor der „Illusion von Empathie“, also vor sprachlicher Wärme ohne echtes inhaltliches Verstehen5. Für die Mediationspraxis ist diese Unterscheidung essenziell, da hier jede Äußerung im Kontext komplexer Beziehungsdynamiken steht.
Vor diesem Hintergrund ist es mein Ziel, mit diesem Artikel den aktuellen Forschungsstand zur Empathiefähigkeit von KI-Systemen darzustellen, ihre Möglichkeiten und Grenzen im Kontext mediationsnaher Verfahren zu beschreiben und die ethischen sowie gesellschaftlichen Implikationen zu diskutieren.

Was ist Empathie?

Empathie ist in der psychologischen und kommunikationswissenschaftlichen Literatur kein einheitlich definierter Begriff. Die Mehrzahl der Autoren unterscheidet zwischen kognitiver Empathie – dem intellektuellen Erfassen der Gefühle und Perspektiven einer anderen Person – und affektiver Empathie – dem emotionalen Miterleben dieser Gefühle6. Teilweise wird noch eine dritte Dimension, das Mitgefühl (compassion), abgegrenzt, das nicht nur das Mitempfinden, sondern auch die Motivation zu unterstützendem Handeln umfasst7 8 9.
In der Mediation spielen alle drei Dimensionen eine Rolle, wobei kognitive Empathie vor allem bei der strukturierten Rekonstruktion von Sichtweisen bedeutsam ist, während affektive Empathie die emotionale Verbundenheit stärkt und Mitgefühl als Handlungsimpuls deeskalierend wirken kann10. Die Übertragung dieser Konzepte auf KI-Systeme stößt jedoch auf methodische und begriffliche Grenzen: Maschinen haben weder subjektives Erleben noch Emotionen im menschlichen Sinn, sondern können lediglich Muster in Sprache oder anderen Daten erkennen und reproduzieren11.
Um Empathie im Zusammenhang mit Künstlicher Intelligenz zu messen, nutzt man daher meist Methoden, die auf beobachtbaren Funktionen und Leistungen beruhen. Eines der wichtigsten Modelle ist das EPITOME-Framework (Emotional Reactions, Interpretations, Explorations), das ursprünglich für die Analyse von Peer-Support-Gesprächen entwickelt wurde12. Es kodiert empathische Kommunikation in drei Mechanismen: die unmittelbare emotionale Reaktion auf eine Äußerung, die Interpretation der zugrundeliegenden Bedeutung und die Exploration durch weiterführende Fragen. Untersuchungen zeigen, dass LLMs bei der ersten Kategorie – also der sprachlichen Spiegelung von Emotionen – besonders stark sind, während sie bei Interpretation und Exploration im Schnitt schwächer abschneiden13.
Ein weiterer etablierter Messansatz ist die Levels of Emotional Awareness Scale (LEAS), ein psychologischer Test, der ProbandInnen mit hypothetischen Szenarien konfrontiert und die Fähigkeit bewertet, eigene und fremde Emotionen differenziert zu benennen14. In einer Studie von Elyoseph et al. (2023) erzielte ChatGPT signifikant höhere Werte als die menschliche Vergleichsgruppe und verbesserte sogar seine Ergebnisse in einem zweiten Test, der einen Monat später durchgeführt wurde15. Ergänzend dazu bietet das 2024 vorgestellte PsychoBench ein Test-Framework mit 13 psychometrischen Skalen, darunter Empathie- und Emotionsintelligenztests, das für den direkten Vergleich unterschiedlicher KI-Modelle genutzt werden kann16.
Neben diesen Skalen kommen in jüngster Zeit auch komplexere Bewertungsrahmen zum Einsatz, die Dialogverläufe in Echtzeit analysieren und mit Codes aus der „Motivational-Interviewing“-Forschung (MITI) abgleichen. Diese Verfahren ermöglichen eine feinere Erfassung, inwieweit KI-Systeme nicht nur empathisch klingende Formulierungen liefern, sondern auch funktional im Gesprächsverlauf empathische Akte setzen. Gleichwohl bleibt die zentrale methodische Herausforderung bestehen: Empathie bei KI ist immer ein Display, ein erkennbares Muster, das beim Gegenüber den Eindruck von Empathie hervorruft, ohne dass eine innere Gefühlslage zugrunde liegt.

Stand der Forschung

Die wissenschaftliche Auseinandersetzung mit der Empathiefähigkeit von LLMs hat seit 2023 stark an Dynamik gewonnen. Berücksichtigt werden muss bei der Lektüre und Bewertung von KI-Studien allerdings, dass diese zum Zeitpunkt des Erscheinens, aufgrund der außergewöhnlich schnellen Weiterentwicklung, teilweise schon überholt sind.

a) Eine der frühesten Studien, die KI im Bereich emotionaler Bewusstheit testete, stammt wie bereits erwähnt von Elyoseph et al. (2023)17. Mithilfe der Levels of Emotional Awareness Scale (LEAS) verglichen die Autoren die Leistung von ChatGPT mit Normwerten der Allgemeinbevölkerung. ChatGPT erreichte signifikant höhere Werte und verbesserte sich sogar zwischen zwei Testzeitpunkten innerhalb eines Monats weiter.
Für die Mediation deutet dies darauf hin, dass LLMs in der Lage sind, differenziert zwischen emotionalen Zuständen zu unterscheiden und diese sprachlich präzise zu benennen – eine Kompetenz, die insbesondere in der Phase der Problemexploration wertvoll sein kann.

b) Eine Harvard University/Universität Graz-Studie von Li, Herderich und Goldenberg (2024)18 untersuchte die Fähigkeit von GPT-4 und menschlichen Probanden zur kognitiven Neubewertung („Reframing“ in der Kommunikationswissenschaft) negativer Situationen. GPT-4 übertraf die menschlichen Vergleichspersonen in drei von vier Bewertungsbereichen, und dies auch dann, wenn den Menschen finanzielle Anreize für bessere Leistungen geboten wurden. Dies legt nahe, dass KI für Reframing-Aufgaben eingesetzt werden kann.

c) Cuadra et al. (2024)19 prägen den Begriff der „Illusion of Empathy“, um zu beschreiben, dass LLMs zwar häufig sprachliche Wärme erzeugen, aber in den Dimensionen Interpretation und Exploration schwächer abschneiden. In einem systematischen Vergleich zeigte sich, dass KI-Äußerungen in der ersten Kontaktaufnahme empathisch wirkten, in vertiefenden Gesprächsphasen jedoch inhaltlich weniger tragfähig waren.

d) Schlegel et al. (2025)20 testeten LLMs und Menschen mit standardisierten „Emotional-Intelligence-Tests“. Die Studie zeigt, dass aktuelle Large Language Models (darunter GPT-4) in standardisierten Tests der emotionalen Intelligenz – einschließlich des Erkennens, Verstehens und angemessenen Regulieren von Emotionen – deutlich besser abschnitten als durchschnittliche menschliche Testpersonen. GPT-4 war zudem in der Lage, realistische und vielseitige neue Testaufgaben zu erstellen, die in Schwierigkeit, Klarheit und Realitätsbezug weitgehend den menschlich entwickelten Tests entsprachen.
Diese Ergebnisse sprechen dafür, dass moderne KI-Modelle über ein hohes Maß an „kognitiver Empathie“ verfügen, also präzises Wissen über Emotionen und deren Regulation zeigen – eine zentrale Voraussetzung, um in Empathie bezogenen Kontexten wie Mediation, Beratung oder Kundenservice überzeugend zu agieren.

e) Huang et al. (2024)21 stellten mit PsychoBench ein Konzept vor, das 13 psychometrische Tests umfasst, darunter auch Empathie Tests. Es ermöglicht direkte Modellvergleiche und kann sowohl zur Forschung als auch zur Praxisprüfung eingesetzt werden. Für Mediation eröffnet dies die Möglichkeit, KI-Assistenten vor ihrem Einsatz systematisch auf Empathie- und Kommunikationskompetenzen zu testen.

f) Juquelier et al. (2025)22 untersuchten in drei Experimenten, wie empathische Chatbots die wahrgenommene soziale Präsenz und die Qualität von Informationen beeinflussen. Unter normalen Bedingungen steigerten empathische Formulierungen die Zufriedenheit der Nutzer. Unter Zeitdruck jedoch kehrte sich der Effekt um – Teilnehmer empfanden die Empathie als störend.

g) Eine Studie von Chen et al. (2026)23 zu interkultureller Empathie ergab, dass ein bewusster KI-Dialog die Empathie Werte bei US-Teilnehmenden steigern konnte, nicht jedoch bei lateinamerikanischen Probanden. Dies weist darauf hin, dass empathische Kommunikation kulturell geprägt ist und bei international zusammengesetzten Mediationsgruppen besondere Aufmerksamkeit erfordert.

h) Mei et al. (2024)24 testeten GPT-4 in klassischen ökonomischen Verhaltensspielen (Ultimatum-, Vertrauens-, Gefangenendilemma- und Public-Goods-Spiel) und stellten fest, dass das Modell sich oft kooperativer und altruistischer verhielt als der Durchschnitt der menschlichen Vergleichsgruppe.

Nutzen in der Mediationsarbeit?

Die aktuellen Forschungsergebnisse lassen erkennen, dass LLMs in mehreren Teilbereichen der mediationsnahen Arbeit bereits heute sinnvolle Unterstützung leisten können. Dabei geht es nicht um den Ersatz menschlicher Mediatoren, sondern um die Erweiterung ihrer Werkzeuge und Kompetenzen. Im Folgenden werden zentrale Anwendungsfelder vorgestellt.

Unterstützung bei der Gesprächsvorbereitung

Vor der eigentlichen Mediation kann KI eingesetzt werden, um Konfliktgeschichten zu strukturieren und emotionale Kernthemen zu identifizieren. Hierbei nutzen LLMs ihre Fähigkeit zur differenzierten Emotionsbenennung, wie sie in der LEAS-Studie von Elyoseph et al. (2023) nachgewiesen wurde. Durch das Analysieren verschriftlichter Vorgespräche oder E-Mails lassen sich potenzielle Eskalationspunkte markieren, was die Vorbereitung des Mediators erleichtert.

Reframing

Das von Li, Herderich und Goldenberg (2024) dokumentierte überdurchschnittliche Abschneiden von GPT-4 bei kognitiver Neubewertung (Reframing) legt nahe, dass KI gezielt als Reframing-Assistent eingesetzt werden kann. In der Praxis bedeutet dies, dass ein Mediator in Vorbereitung oder, das Einverständnis beider Parteien vorausgesetzt, während einer Sitzung, Formulierungen der Parteien anonymisiert in das System eingeben kann, um alternative, weniger konfrontative Ausdrucksweisen zu erhalten. Dies kann helfen, Gesprächsblockaden zu lösen oder missverständliche Formulierungen zu entschärfen.

Vorschlagserstellung

In der Optionsphase einer Mediation können LLMs genutzt werden, um lösungsorientierte Vorschläge zu generieren. Die Ergebnisse der Verhaltensspiel-Studie von Mei et al. (2024) belegen, dass GPT-4 in kooperativen Szenarien tendenziell altruistischer agiert als der mittlere Wert der menschlichen Vergleichsgruppen. Dies kann in mediationsnahen Settings genutzt werden, um den Parteien Optionen aufzuzeigen, die auf gemeinsamen Interessen aufbauen.

Co-Moderator in ODR

In ODR-Formaten, bei denen Mediator/Moderator und Parteien nicht physisch anwesend sind, kann KI als strukturierender Co-Moderator wirken. Sie kann Gesprächsprotokolle in Echtzeit zusammenfassen, Schlüsselaussagen hervorheben und an offene Punkte erinnern. Pilotprojekte wie in der Studie „Robots in the Middle“25 belegen, dass GPT-4 in simulierten online Mediationsszenarien Impulse für deeskalierende Interventionen geben kann.

Die hohen Werte von LLMs in emotionalen Intelligenztests (Schlegel et al., 2025) und psychometrischen Benchmarks (Huang et al., 2024) eröffnen auch in der Mediatoren Ausbildung neue Möglichkeiten. KI kann als Feedback-System dienen, das angehenden Mediatoren aufzeigt, welche ihrer Äußerungen empathisch wirken und wo Potenzial für präzisere oder differenziertere Formulierungen besteht.

Grenzen und Risiken

So vielversprechend die Ergebnisse der jüngsten Forschung zur Empathiefähigkeit von KI-Systemen auch erscheinen mögen, ist es für die Mediationspraxis unabdingbar, die bestehenden Schwächen, Gefahren und ethischen Problemlagen dieser Technologie klar zu benennen. Die nachfolgenden Punkte zeigen, dass der Einsatz empathischer KI in der Mediation ohne sorgfältige Gestaltung und menschliche Aufsicht erhebliche Risiken birgt.
Die von Cuadra et al. (2024) eingeführte Unterscheidung zwischen emotionaler Reaktion einerseits und den vertiefenden Mechanismen Interpretation und Exploration andererseits, verdeutlicht, dass LLMs häufig bei Letzteren Defizite aufweisen. In der Mediation kann dies dazu führen, dass sich Parteien verstanden fühlen, ohne dass tatsächlich neue Perspektiven oder Lösungsansätze erarbeitet werden – ein trügerisches Gefühl von Fortschritt.

Mehrere Studien zeigen, dass KI-Systeme in der empathischen Ansprache je nach wahrgenommener Identität des Gegenübers ungleich reagieren können26. In Experimenten mit unterschiedlichen demografischen Profilen lieferten LLMs teils stereotype oder verzerrte Antworten. Für die Mediation ist dies besonders problematisch, da hier Neutralität und Allparteilichkeit zentrale Prinzipien sind. Unentdeckte Biases könnten nicht nur das Vertrauen der Parteien untergraben, sondern auch rechtliche Haftungsfragen aufwerfen.
Die Untersuchung von Chen et al. (2026) zur interkulturellen Empathie belegt, dass die Wirkung empathischer Kommunikation stark von kulturellen Erwartungshaltungen abhängt. In internationalen Mediationssettings besteht somit das Risiko, dass eine von der KI-generierte „empathische“ Botschaft in bestimmten Kulturkreisen nicht nur wirkungslos, sondern unter Umständen sogar unpassend wirkt.

Die Verhaltensspiel-Studie von Mei et al. (2024) zeigt, dass GPT-4 tendenziell zu kooperativen und altruistischen Entscheidungen neigt. Während dies in vielen Konfliktkonstellationen wünschenswert ist, kann es in anderen problematisch sein – etwa, wenn ein zu starkes Kooperationsmuster dazu führt, dass legitime, aber konfliktträchtige Standpunkte einer Partei vorschnell verwässert werden. Dieses Phänomen einer „überangepassten“ KI kann zu einseitiger Dynamik führen.

Die Experimente von Juquelier, Poncin und Hazée (2025) verdeutlichen, dass der Nutzen empathischer Kommunikation vom situativen Kontext abhängt. Unter Zeitdruck oder bei hoher Sachorientierung kann ein anhaltend „warmer“ Ton als störend oder künstlich empfunden werden. KI-Systeme, die den Gesprächskontext nicht adaptiv berücksichtigen, riskieren daher, kontraproduktive Effekte zu erzeugen.

Der Einsatz empathischer KI in hochsensiblen Verfahren wie Mediationen unterliegt strengen rechtlichen Anforderungen. Der EU AI Act klassifiziert KI-Systeme für den Einsatz in der Justiz und bei der Streitbeilegung als Hochrisikoanwendungen, die umfangreiche Dokumentations-, Transparenz- und Kontrollpflichten nach sich ziehen. Dies gilt auch für Systeme, die nicht autonom entscheiden, sondern lediglich unterstützend agieren. Verstöße können nicht nur rechtliche Konsequenzen haben, sondern auch die berufsethische Integrität von Mediatoren gefährden.

Ethische und gesellschaftliche Implikationen

Die Integration Empathiefähiger KI-Systeme in die Mediationsarbeit wirft tiefgreifende ethische und gesellschaftliche Probleme auf. Diese betreffen insbesondere das Vertrauen in das Verfahren, die Wahrung von Vertraulichkeit, den Schutz vor Diskriminierung sowie die berufs- und haftungsrechtliche Verantwortung der beteiligten MediatorInnen und Mediatoren.
Vertrauen ist in der Mediation nicht nur eine notwendige Rahmenbedingung, sondern selbst ein Prozessziel. Die Einbindung von KI kann dieses Vertrauen sowohl stärken als auch untergraben. Studien zeigen, dass Teilnehmende KI-generierte Kommunikation als qualitativ hochwertig wahrnehmen, diese jedoch weniger empathisch einstufen, sobald klar ist, dass sie nicht von einem Menschen stammt. In diesem Spannungsfeld müssen MediatorInnen zwischen Transparenzpflicht und der Gefahr einer „Selbstentwertung“ der empathischen Wirkung abwägen. Der Grundsatz der informierten Zustimmung legt nahe, dass Parteien über den Einsatz von KI im Vorfeld klar informiert werden müssen.
In der Mediation ist Vertraulichkeit ein zentrales Prinzip, das häufig vertraglich oder gesetzlich abgesichert ist. Der Einsatz cloudbasierter LLMs wirft hier Fragen der Datenübermittlung in Drittländer sowie der Zweckbindung auf. Selbst wenn keine Gesprächsinhalte direkt gespeichert werden, kann das Verarbeiten sensibler Daten in Trainings- oder Fine-Tuning-Prozessen gegen die DSGVO27 verstoßen. Für MediatorInnen bedeutet dies, dass sie nur Systeme einsetzen sollten, die entweder lokal und offline betrieben werden oder über nachweislich DSGVO-konforme Schnittstellen verfügen.

Empathische KI muss, wie alle hochriskanten KI-Anwendungen, den Vorgaben zur Vermeidung diskriminierender Auswirkungen genügen. Das umfasst sowohl die Vermeidung von Bias in den Trainingsdaten als auch die Implementierung von Mechanismen, die unfaire oder stereotype Äußerungen erkennen und blockieren. In mediationsnahen Verfahren ist dies besonders relevant, da unausgewogene Interventionen zu einer faktischen Parteinahme führen können – mit der Folge einer Beeinträchtigung des Neutralitätsgebots.
Nach den einschlägigen Mediationsgesetzen (z. B. § 1 Abs. 2, § 2 Abs.2,3,6 MediationsG28 in Deutschland) liegt die Verantwortung für den Ablauf und die Wahrung der Grundsätze des Verfahrens stets bei der Mediatorin oder dem Mediator. Der Einsatz von KI entbindet nicht von dieser Verantwortung. Sollte eine Partei geltend machen, dass eine KI-Intervention zu einem ungünstigen oder unausgewogenen Ergebnis beigetragen hat, könnte dies haftungsrechtliche Konsequenzen nach sich ziehen.

Langfristig stellt sich die Frage, ob eine verstärkte Nutzung Empathiefähiger KI zu einer Erosion menschlicher Empathiefähigkeit führen könnte. Während einige Forschende argumentieren, dass KI-gestützte Trainings die empathischen Fähigkeiten von MediatorInnen sogar verbessern können, warnen andere vor einer „Kompetenzdelegation“, bei der das ständige Outsourcen bestimmter Gesprächsfunktionen zur Verarmung sozialer Interaktionskompetenzen führt. Diese Debatte berührt den Kern der gesellschaftlichen Rolle von Mediation als menschzentriertem Verfahren.

Ausblick

Die bisherigen Forschungsergebnisse lassen darauf schließen, dass Empathiefähige KI-Systeme in den kommenden Jahren eine zunehmend bedeutende Rolle in mediationsnahen Verfahren spielen werden. Dabei wird sich die Entwicklung nicht in Richtung eines vollständigen Ersatzes menschlicher Mediatoren bewegen, sondern in Form hybrider Einsatzmodelle, bei denen Mensch und Maschine komplementär zusammenwirken.

Trotz zahlreicher Studien bestehen wesentliche Forschungslücken:
Langzeitwirkungen: Bisherige Untersuchungen sind überwiegend Querschnittsstudien. Es fehlen belastbare Daten darüber, wie sich der Einsatz empathischer KI langfristig auf den Verlauf und die Nachhaltigkeit von Konfliktlösungen auswirkt.
Kulturelle Diversität: Wie Chen et al. (2026) gezeigt haben, ist die Wirkung empathischer KI kulturell variabel. Hier bedarf es gezielter interkultureller Forschungsdesigns, um zu verstehen, welche Anpassungen für multinationale Mediationssettings notwendig sind.
Intermodalität: Die meisten Tests basieren auf Textinteraktion. Studien zu multimodalen Systemen, die Sprache, Gestik und Mimik einbeziehen, sind bislang selten, obwohl nonverbale Signale für Empathie zentral sind.
Bias-Erkennung und -Korrektur: Es existieren erste Verfahren zur Bias-Detektion, doch fehlen standardisierte Benchmarks, die speziell auf mediationsrelevante Gesprächskontexte zugeschnitten sind.

Es zeichnen sich drei denkbare Szenarien ab:
Assistenzmodus: KI-Systeme dienen als Analyse- und Formulierungshilfen, ohne direkt in den Dialog einzugreifen. Mediatoren nutzen sie zur Gesprächsvorbereitung, zur Dokumentation und als Reframing-Werkzeug.
Co-Mediatormodus: Die KI tritt als zusätzlicher Gesprächspartner in Erscheinung, übernimmt strukturierende Aufgaben und liefert empathische Interventionen in Echtzeit, bleibt jedoch klar als KI erkennbar.
Autonomer Modus: Vollständige Durchführung einfacher, standardisierter Mediationsverfahren durch KI, etwa in hochvolumigen ODR-Plattformen. Dieses Szenario wirft erhebliche ethische und rechtliche Fragen auf und ist in Europa nach aktuellem Rechtsrahmen nur eingeschränkt zulässig.

Am wahrscheinlichsten ist mittelfristig ein Hybridmodell, bei dem die KI bestimmte Teilfunktionen übernimmt, während der Mensch die Prozessverantwortung behält. In diesem Setting könnten LLMs etwa emotionale Schlüsselthemen identifizieren, Vorschläge für alternative Formulierungen anbieten oder kultur- und kontextsensitiv abgestufte Empathie-Level steuern. Der menschliche Mediator würde diese Impulse bewerten, anpassen und in den Gesamtrahmen des Verfahrens einbetten.

Damit der Einsatz empathischer KI in der Mediation nachhaltig und verantwortungsvoll gelingt, sind zwei Entwicklungen entscheidend:
+ Professionalisierung: MediatorInnen müssen Kompetenzen im Umgang mit KI-Tools erwerben, einschließlich der Fähigkeit, deren Stärken gezielt zu nutzen und Risiken zu erkennen.
+ Regulierung: Nationale und internationale Berufsverbände sollten praxisorientierte Leitlinien erarbeiten, die sowohl technische als auch ethische Standards festlegen. Der EU AI Act liefert hierfür einen Rahmen, der jedoch für die spezifischen Anforderungen in der Mediation noch ausbuchstabiert werden muss.

Empathie in der Mediation ist mehr als eine kommunikative Technik – sie ist eine Haltung, die auf echtem Verstehen, Allparteilichkeit und dem Schutz eines sicheren Gesprächsraums beruht. LLMs können einzelne Facetten dieser Kompetenz inzwischen erstaunlich überzeugend simulieren und damit Mediatorinnen und Mediatoren wertvolle Impulse geben – sei es bei der Analyse von Konfliktdynamiken, dem Reframing oder der Entwicklung lösungsorientierter Vorschläge.

Doch bleibt Empathie bei KI stets eine Projektion: ein sprachlich erzeugtes Muster, das den Eindruck von Einfühlung vermittelt, ohne eigenes Erleben. Diese Differenz ist nicht nur ein theoretischer, sondern auch ein praktischer Ankerpunkt für verantwortungsvollen Einsatz. Hybride Modelle, in denen Mensch und Maschine ihre jeweiligen Stärken kombinieren, bieten dabei die größten Chancen – vorausgesetzt, sie werden von klaren ethischen Leitplanken, transparenten Prozessen und geschulten Fachkräften getragen. Der eigentliche Wert Empathiefähiger KI wird sich nicht daran messen lassen, ob sie den Menschen ersetzt, sondern daran, ob sie ihn befähigt, Empathie wirksamer, reflektierter und inklusiver einzusetzen. In diesem Sinne kann KI nicht der „Mittelpunkt“ der Mediation sein, wohl aber ein Verstärker für das, was sie im Kern bleibt: ein zutiefst menschlicher Dialograum.

1 Meinhart, S. (2015). Empathie in der Mediation. AV-Akademikerverlag.

2 Schlegel, K. et al. (2025): Large language models are proficient in solving and creating emotional Intelligence tests. Communications Psychology, (2025)3:80, DOI:10.1038/s44271-025-00258-x.

3 Menkel-Meadow, C. (2018): Mediation – Theory, Policy and Practice.

4 Elyoseph, Z. et al. (2023): ChatGPT outperforms humans in emotional awareness evaluations. Frontiers in Psychology.

5 Cuadra, C. et al. (2024): The Illusion of Empathy? Notes on Displays of Emotion in Human-Computer Interaction.

6 Altmann, Empathie. https://www.socialnet.de/lexikon/Empathie (Abgerufen am: 14.8.2025).

7 Boeger, A., & Lüdmann, M. (2022). Empathie. In Psychologie für die Gesundheitswissenschaften. Springer.

8 Davis, M. H. (1994): Empathy – A social psychological approach.

9 Singer, T., & Klimecki, O. M. (2014): Empathy and compassion.

10 Moore, C. W. (2014): The Mediation Process.

11 Menkel-Meadow, C. (2018): Mediation – Theory, Policy and Practice.

12 Sharma, A. et al. (2020): A computational approach to understanding empathy expressed in text-based mental health support.

13 Cuadra, C. et al. (2024): The Illusion of Empathy? Notes on Displays of Emotion in Human-Computer Interaction.

14 Lane, R. D. et al. (1990): The Levels of Emotional Awareness Scale: A cognitive-developmental measure of emotion.

15 Elyoseph, Z. et al. (2023): ChatGPT outperforms humans in emotional awareness evaluations. Frontiers in Psychology.

16 Huang, J. et al. (2024): WHO is ChatGPT? Benchmarking LLMs psychological portrayal using Psychobench.

17 Elyoseph, Z. et al. (2023): ChatGPT outperforms humans in emotional awareness evaluations. Frontiers in Psychology.

18 Li, J., Herderich, K., & Goldenberg, A. (2024): Cognitive Reappraisal with AI Assistance. Harvard University & University of Graz Working Paper.

19 Cuadra, C. et al. (2024): The Illusion of Empathy? Notes on Displays of Emotion in Human-Computer Interaction.

20 Schlegel, K. et al. (2025): Large language models are proficient in solving and creating emotional Intelligence tests. Communications Psychology, (2025)3:80, DOI:10.1038/s44271-025-00258-x.

21 Huang, J. et al. (2024): WHO is ChatGPT? Benchmarking LLMs psychological portrayal using Psychobench.

22 Juquelier, A. et al. (2025): Empathic chatbots: a double-edged sword in customer experiences.

23 Chen et al. (2026): AI as a deliberative partner fosters intercultural empathy for americans but fails for latin american participants.

24 Mei et al. (2024): A Turing test of whether AI chatbots are behaviorally similar to humans.

25 Westermann et al. (2024): Robots in the middle: evaluating LLMs in Dispute Resolution.

26 Buolamwini, J. & Gebru, T. (2018): Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification.

27 Voigt, P., & von dem Bussche, A. (2017): The EU General Data Protection Regulation (GDPR). Springer.

28 Mediationsgesetz (MediationsG) vom 21. Juli 2012 (BGBl. I S. 1577), zuletzt geändert durch Art. 135 der Verordnung vom 31. August 2015 (BGBl. I S. 1474).

Michael Lardy
Michael Lardy
https://www.MichaelLardy.com
Mediator | Médiateur Franco-Allemand

Michael Lardy ist ein deutsch-französischer Mediator und ein führender Experte für den Einsatz Künstlicher Intelligenz in der Mediation und Mediatorenausbildung. Als Pionier auf diesem Gebiet erforscht er seit dem Erscheinen von ChatGPT die Potenziale und Herausforderungen der KI in der Konfliktlösung und publiziert regelmäßig zu diesem Thema. Aufgrund seiner Expertise wird er regelmäßig als Referent zu internationalen Konferenzen eingeladen – nach Luxemburg, in die Schweiz, in die USA, nach Frankreich und Österreich.