OpenAI implementiert in ChatGPT einen speziellen Modus für Nutzer unter 18 Jahren. Dies erhöht die Sicherheit von Minderjährigen bei der Kommunikation mit künstlicher Intelligenz.
Wie CEO Sam Altman erklärte, aktiviert das System automatisch eine angepasste Version für Jugendliche, wenn es feststellt, dass der Nutzer minderjährig ist. In diesem Modus schränkt der Chatbot den Zugriff auf explizite und sexuell explizite Inhalte ein. Wird ein Risiko der Selbstverletzung erkannt, warnt ChatGPT Eltern oder sogar die Strafverfolgungsbehörden vor der Lebensgefahr des Nutzers.
Das Unternehmen entwickelt neue Technologien zur Altersüberprüfung. Eine Verifizierung ist erforderlich. Ist dies nicht möglich oder fraglich, aktiviert das System standardmäßig den „Teenager-Modus“. In einigen Ländern müssen Nutzer ihr Alter mit einem Personalausweis oder Reisepass nachweisen.

Die Kindersicherung im Chatbot ermöglicht es Nutzern, das Konto eines Elternteils per E-Mail mit dem Profil ihres Teenagers zu verknüpfen, die Nutzungsdauer des Dienstes zu begrenzen, bestimmte Funktionen zu deaktivieren, Benachrichtigungen an die Eltern zu senden, wenn das Verhalten des Nutzers instabil ist, und Stil und Inhalt der Antworten anzupassen.
Diese Entscheidung wurde nach ausführlichen Beratungen mit Experten aus den Bereichen Sicherheit, Psychologie und digitale Ethik getroffen. ChatGPT ist offiziell für Nutzer ab 13 Jahren verfügbar.
Zur Erinnerung: Es wurde bereits berichtet, dass ChatGPT einen Teenager in den Selbstmord getrieben hat.
Fortsetzung folgt …



Nur registrierte Benutzer können Kommentare posten