OpenAI aktiviert einen Vertrauenskontakt für Krisenfälle

10. May 2026 Veröffentlicht | Aus dem Spanischen übersetzt

OpenAI hat in ChatGPT eine Funktion namens Trusted Contact implementiert, die sich an erwachsene Nutzer richtet. Dieses Tool ermöglicht es, eine Vertrauensperson zu benennen, die eine Warnung erhält, wenn das System Anzeichen für ein Risiko von Selbstverletzung oder Suizid erkennt. Die Maßnahme zielt darauf ab, in kritischen Situationen einen zusätzlichen Unterstützungskanal zu bieten.

Eine ChatGPT-Oberfläche zeigt eine Warnmeldung zusammen mit einem Symbol für einen Vertrauenskontakt und einem roten Telefon.

Wie das präventive Warnsystem in ChatGPT funktioniert 🛡️

Die Trusted-Contact-Funktion wird durch eine Analyse von Gesprächsmustern aktiviert, die das Modell in Echtzeit durchführt. Wenn das System ein erhöhtes Risikoniveau erkennt, sendet es eine Benachrichtigung an den designierten Kontakt mit Informationen über die Situation, ohne den vollständigen Inhalt des Gesprächs preiszugeben. Der Nutzer muss diesen Kontakt in den Kontoeinstellungen konfigurieren und kann ihn jederzeit ändern. Der Datenschutz bleibt unter den Sicherheitsprotokollen von OpenAI gewahrt.

Dein Freund ChatGPT ruft jetzt auch deine Eltern an 😅

Weil es nicht ausreichte, dass die KI dich an deine Grammatikfehler erinnerte oder dir sagte, dass diese Geschäftsidee miserabel ist. Jetzt, wenn du dich zu dramatisch mit dem Chatbot anstellst, kann dieser deine Vertrauensperson benachrichtigen. Aber Vorsicht, vielleicht konfigurierst du versehentlich deinen Ex-Partner und bekommst eine Textnachricht, während du versuchst, ein trauriges Gedicht zu schreiben. Die Technologie schreitet voran, aber das Drama bleibt universell.