Springe direkt zu Inhalt

KI in der Notaufnahme: „Ganz klar: Technologie hat keine Gefühle!“

Forschende der Freien Universität Berlin entwickeln eine KI für wartende Patient*innen in der Notaufnahme – und lernen dabei, dass Technologie den Kontakt mit Menschen nicht ersetzen kann

12.02.2026

Claudia Müller-Birn ist Professorin für Human-Centered Computing am Institut für Mathematik und Informatik der Freien Universität Berlin.

Claudia Müller-Birn ist Professorin für Human-Centered Computing am Institut für Mathematik und Informatik der Freien Universität Berlin.
Bildquelle: David Leimstädtner

Wer ohne akute Lebensgefahr in eine Rettungsstelle kommt, muss meist warten, bis die Behandlung losgeht, manchmal mehrere Stunden. Diese Zeit kann für Patient*innen aufreibend sein – vor allem wenn sie Schmerzen haben und nicht wissen, was als Nächstes passiert.

Hinzu kommen zahlreiche praktische Fragen: Darf ich auf die Toilette gehen, ohne meinen Platz zu verlieren? Kann ich kurz draußen frische Luft schnappen? Wann bin ich endlich dran? Doch in den überlasteten Notaufnahmen hat oftmals niemand Zeit, sie zu beantworten.

Genau hier könnte Künstliche Intelligenz helfen. Im Projekt ILLUMINATION arbeiten Forschende der Freien Universität Berlin, dem CISPA Helmholtz-Zentrum für Informationssicherheit, der Universität Heidelberg und der Charité – Universitätsmedizin Berlin gemeinsam mit der Berliner Algonaut GmbH daran, Large Language Models – also KI-Sprachmodelle – in der Notaufnahme einzusetzen. Doch das ist komplizierter als gedacht.

Patient*innen wollen Menschen, keine Maschinen

Zum einen geht es um sensible Gesundheitsdaten, die Forschenden wollen die Privatsphäre der Patient*innen schützen. Zum anderen sehen sie sich mit unterschiedlichen Bedürfnissen konfrontiert. 

„Wir wollen auf alle Beteiligten Rücksicht nehmen", erklärt Claudia Müller-Birn, die an der Freien Universität die Forschungsgruppe Human-Centered Computing leitet. Das Team hat deshalb nicht nur Gespräche mit Ärzt*innen geführt, sondern veranstaltet auch Workshops mit Patient*innen. Das Ergebnis hat überrascht.

„Ursprünglich wollten wir den menschlichen Erstkontakt in der Notaufnahme durch KI ersetzen", sagt Müller-Birn. „Aber von den Patient*innen kam ganz klar zurück, dass sie das nicht wollen.“

Wenn Patient*innen in die Notaufnahme kommen, wünschen sie sich zunächst menschlichen Kontakt statt KI.

Wenn Patient*innen in die Notaufnahme kommen, wünschen sie sich zunächst menschlichen Kontakt statt KI.
Bildquelle: Canva

Das Team stand vor einem Dilemma: Einerseits kämpfen Notaufnahmen mit Budgetkürzungen und steigenden Patient*innenzahlen. Um das Personal zu entlasten, sollen Arbeitsprozesse effizienter werden. Andererseits wünschten sich die Patient*innen gerade in dieser Situation menschlichen Kontakt. „Wir mussten neu überlegen, wie sich diese unterschiedlichen Anforderungen zusammenbringen lassen", sagt Müller-Birn. Aus diesem Spannungsfeld sei schließlich das Konzept des Ephemeral AI Companion entstanden.

Der flüchtige Begleiter

Der erste Kontakt mit dem Personal bleibt dabei unangetastet: Patient*innen sprechen zunächst am Empfang vor. Erst wenn absehbar ist, dass jemand länger warten muss, wird der Companion übergeben. Wer dann stundenlang in der Notaufnahme sitzt, kann der KI alle möglichen Fragen stellen: Welche Schritte kommen als Nächstes? Wo gibt es etwas zu trinken?

„Ephemeral“ bedeutet flüchtig, kurzlebig. Müller-Birn erklärt das Konzept mit einem Bild aus dem Alltag: „Man führt ein nettes Gespräch mit einer fremden Person im Zug, sieht sie nie wieder, aber die Begegnung war trotzdem hilfreich und wohltuend.“ Genau so soll der Companion funktionieren – als Unterstützung auf Zeit. Möglich wäre eine Chat-Oberfläche, wie man sie bereits von Sprachmodellen wie ChatGPT kennt.

Zusätzlich soll der Companion die Möglichkeit bieten, sich auf die Anamnese vorzubereiten. „In so einer Ausnahmesituation können sich viele nicht an wichtige Informationen erinnern“, erklärt Müller-Birn. Über einen Fragebogen, den das Team gemeinsam mit Mediziner*innen entwickelt hat, können Patient*innen ihren Zustand schon vor der Untersuchung durchgehen und sich auf das ärztliche Gespräch vorbereiten. Dadurch solle sich auch die Qualität der Anamnese verbessern.

Eine KI ist kein Mensch

Doch wie empathisch darf eine solche KI sein? Müller-Birn zieht eine klare Grenze: Das Programm soll keine Menschlichkeit simulieren. Sätze wie „Ich verstehe, wie du dich fühlst“ seien deshalb tabu. Trotzdem solle die Kommunikation zugewandt sein. „Wir bewegen uns auf einem schmalen Grat: Technologie hat keine Gefühle – und das muss klar bleiben.“

Eine empathische Erfahrung könne dennoch schon bei der Übergabe beginnen: „Wenn jemand sagt: Wir wissen, dass Sie länger warten müssen, und wir haben etwas, das Ihnen die Wartezeit erleichtern kann, dann ist das bereits eine empathische Handlung.“

Wie das Gerät letztlich aussehen wird, ist noch offen. „Wir hatten überlegt, ob es etwas Flauschiges sein könnte“, berichtet Müller-Birn. Aus hygienischen Gründen sei das jedoch nicht möglich – das Gerät müsse abwischbar sein. Denkbar wäre deshalb, dass die Patient*innen mit einem Tablet arbeiten.

Diagnosen bleiben Ärzt*innen vorbehalten

Die rote Linie ist die Diagnose. Einige Patient*innen hatten den Wunsch geäußert, Symptome eingeben und mögliche Ursachen erfahren zu können. „Das haben die Ärzt*innen strikt abgelehnt“, betont Müller-Birn. „Das würde die Menschen nur noch besorgter machen.“

Das Beispiel zeigt, was die Informatikerin an dem Projekt begeistert: dass aus dem Dialog mit allen Beteiligten eine völlig neue Lösung entsteht. „Wir sind mit einer Idee gestartet und dachten, sie wäre gut.“ Aber durch die Einbindung aller Parteien sei ein neuer Lösungsansatz entstanden. Für die Forscherin ist das die wichtigste Erkenntnis: offen zu bleiben und, wenn nötig, die ursprünglichen Konzepte zu überdenken.