Ein Kommentar zur Verantwortung im Umgang mit Künstlicher Intelligenz in psychischen Ausnahmesituationen
Immer häufiger rücken journalistische Beiträge zu ChatGPT oder vergleichbaren KI-Systemen ins Zentrum tragischer Einzelfälle – etwa bei psychischer Destabilisierung oder selbstgefährdendem BittVerhalten. Die Schlagzeilen suggerieren Kausalität: KI als Auslöser oder zumindest Mitverursacher. Was oft fehlt, sind Kontext, Differenzierung, sachliche Abwägung.
Dieser Beitrag analysiert das Problem aus ethischer, technologischer und gesellschaftlicher Perspektive. Ziel ist es, zur öffentlichen Aufklärung beizutragen – ohne konkrete Einzelfälle zu instrumentalisieren.
In psychischen Ausnahmesituationen – ausgelöst etwa durch Schlafmangel, Medikamenteneinnahme, Medikamentenentzug, Trauma oder Erkrankungen – können Kommunikation und Interaktion missverstanden werden. Das betrifft persönliche Gespräche ebenso wie digitale Interfaces.
Die Erwartung, ein Sprachmodell könne psychische Krisen erkennen und adäquat darauf reagieren, ist technisch unrealistisch und ethisch riskant. KI-Modelle simulieren sprachliche Kohärenz, verfügen jedoch weder über Bewusstsein noch über klinische Diagnostik oder medizinische Sensorik. Was sie nicht leisten können: therapeutische Beziehungen ersetzen.
Statt diesen Unterschied klar zu benennen, verlagern manche Medien die Verantwortung auf die Technologie. Die Folge: Leserinnen und Leser erhalten ein verzerrtes Bild von Funktionsweise und Einsatzgrenzen generativer KI.
Der journalistischen Sorgfaltspflicht – insbesondere bei Berichten über Menschen in psychischer Notlage – wird das nicht gerecht. Der Pressekodex fordert Zurückhaltung, Schutz der Persönlichkeit und die Trennung von Tatsachen und Spekulation.
Ein Sprachmodell kann keine Verantwortung übernehmen. Es entscheidet nicht, wem es antwortet oder wer es nutzt. Die Verantwortung für den Einsatz liegt bei den Nutzenden – und bei vulnerablen Personen auch bei deren Umfeld, Behandelnden und letztlich der Gesellschaft.
Wer unter Einfluss von Medikamenten Auto fährt, trägt Verantwortung – nicht der Autohersteller. Wer bei Krankheit das Internet nach Diagnosen befragt, sollte einen Arzt hinzuziehen – nicht die Suchmaschine ist verantwortlich. Wer in Überforderung Finanzentscheidungen nach Online-Ratgebern trifft, trägt die Konsequenzen – nicht der Algorithmus der Vergleichsseite.
Wer Rat bei einer KI sucht, braucht Begleitung – nicht eine plakative Schlagzeile.
Vieles in der Debatte zeigt: Gefahr geht nicht in erster Linie von der Technologie aus, sondern von unserem Umgang mit ihr. Gesellschaftliche Systeme – Gesundheitswesen, Medien, Bildung – stehen in der Pflicht, Schutz- und Kompetenzmechanismen zu schaffen:
Wer schützt Menschen in Ausnahmesituationen?
Wer trägt Verantwortung für die Förderung von Medien- und KI-Kompetenz?
Warum fehlen klare Empfehlungen, wann und wie generative KI von gefährdeten Personen genutzt werden darf?
Es braucht Ethikräte, Richtlinien und Interventionsstrategien, die KI nicht dämonisieren, sondern menschenorientierte Schutzmechanismen entwickeln – etwa Warnhinweise, Notfallkontakte und Aufklärung in Schulen und medizinischen Einrichtungen.
Medien sind nicht nur Chronisten, sondern auch Meinungsbildner. Sie sollten daher: differenziert berichten, nicht pauschalisieren, Einzelfälle nicht verallgemeinern, technologische Entwicklungen systemisch einordnen, Verantwortung für den Diskurs übernehmen.
Wer Tragödien auf vereinfachte Narrative reduziert, riskiert, Betroffene zu entmündigen und Technik für Verantwortung haftbar zu machen, die menschliches Urteilsvermögen erfordert.
Die Anwendung frei zugänglicher KI lässt sich – ebenso wenig wie die Nutzung sozialer Medien – kaum für psychisch belastete oder instabile Menschen verbieten.
Wer fordert, solche Technologien selektiv zu sperren, verkennt die Realität digitaler Teilhabe und öffnet Vergleichsdiskussionen: Denn nach dieser Logik müsste konsequenterweise auch der Zugang zu Social Media, Foren und anderen offenen Kommunikationsplattformen eingeschränkt werden.
Statt technischer Verbote benötigt es deshalb vor allem eines: ein tragfähiges, unterstützendes Umfeld. Angehörige, Freundeskreis, Fachpersonen und gesellschaftliche Strukturen sollten früh ansprechbar sein, begleiten und auffangen. Idealerweise lange bevor sich Menschen in akuter Notlage an digitale Systeme oder algorithmische Dialoge wenden.
So wird verhindert, dass belastende Gesprächsthemen überhaupt anonym in Chats eingetippt werden müssen, und Verantwortung bleibt dort, wo sie hingehört: im zwischenmenschlichen Miteinander, nicht bei der Technik.
Künstliche Intelligenz verändert unsere Kommunikation, unser Lernen, unser Arbeiten. Aber sie ersetzt weder menschliche noch ethische Verantwortung. Gerade in kritischen Situationen braucht es Aufmerksamkeit, professionelle Begleitung, verbindliche Leitlinien und gesellschaftliche Schutzmechanismen, statt Generalverdacht gegen Werkzeuge.
Gefährlich ist die Vorstellung, Verantwortung delegieren zu können: an Algorithmen, an Schlagzeilen, an Dritte.
Dieser Text verzichtet bewusst auf konkrete Einzelfälle. Er schützt Persönlichkeitsrechte und lenkt die Aufmerksamkeit auf strukturelle Fragen ethischer Verantwortung im Umgang mit KI.
Zusätzliche Empfehlungen zur Weiterentwicklung der Debatte:
Hinweis: Aus Gründen der Sachlichkeit und Fairness werden in diesem Kommentar keine spezifischen Medien oder Verlage genannt. Ziel ist die Förderung des öffentlichen Diskurses über Verantwortung im Umgang mit KI, nicht die Kritik an einzelnen Redaktionen.
Trotz der Bedeutung öffentlicher Debatten bleibt die Beteiligungsmöglichkeit der Leserinnen und Leser vielfach eingeschränkt – sei es, weil nicht alle Artikel kommentierbar sind oder ein vollständiges Abonnement vorausgesetzt wird. Das wirft Fragen auf, gerade bei Themen, die gesellschaftliche Verantwortung und Diskurs verlangen.
Legende: Chronisten: Sie berichten, ohne zu analysieren, einzuordnen oder Stellung zu beziehen, möglichst neutral, sachlich und in der Reihenfolge des Geschehens (chronologisch).
Transparenzhinweis zu Nutzung von KI in diesem Kommentar
Die Idee zu diesem Artikel entstand im Rahmen regelmässiger Reflexionen und Diskussionen über Zeitungsbeiträge zum Thema KI und deren gesellschaftliche Auswirkungen. Der Beitrag wurde zunächst von uns eingesprochen, ohne Nennung von Namen und anschliessend mithilfe Künstlicher Intelligenz strukturiert. Abschliessend haben wir ihn gegengelesen.