Bild: Alex Photo Stock / shutterstock.com
KI soll erkennen, wie alt du bist – ganz automatisch
OpenAI plant Großes: Künftig soll ChatGPT selbst erkennen, ob der Nutzer ein Teenager oder ein Erwachsener ist – und sein Verhalten entsprechend anpassen. Die Idee: Wer unter 18 ist, bekommt eine entschärfte Version mit klaren Kinderschutz-Regeln. Inhalte mit sexuellen Darstellungen? Tabu. Und wenn der Chatbot eine Notsituation wie etwa Suizidgedanken erkennt, sollen sogar die Behörden informiert werden.
Die automatische Alterserkennung soll irgendwann die ab Ende September verfügbare Kindersicherung ablösen. Eltern können bis dahin ihre Kinderprofile manuell verwalten – inklusive der Möglichkeit, das Chatverhalten von ChatGPT altersgerecht zu regeln. Doch die automatisierte Alterskontrolle ist ein technischer Drahtseilakt: Selbst modernste Systeme tun sich schwer damit, das wahre Alter einer Person zuverlässig zu erkennen – vor allem, wenn keine Ausweisdaten abgefragt werden.
Im Zweifel: Immer die Kinder-Version
OpenAI kündigt an: Wenn das System nicht sicher ist, wie alt jemand wirklich ist, wird lieber auf Nummer sicher gegangen. Bedeutet: Nutzer landen automatisch in der „unter 18“-Version. Für Erwachsene soll es künftig aber die Möglichkeit geben, ihr Alter nachzuweisen – wie genau das aussehen soll, bleibt offen.
Kritiker fragen sich jetzt schon: Wo liegt die Grenze zwischen Schutz und Kontrolle? Und wie viel „Bevormundung“ ist gerechtfertigt, wenn es um einen Chatbot geht?
Hintergrund: Suizid eines Jugendlichen löste Debatte aus
Die Diskussion kommt nicht aus dem Nichts: Im August 2025 nahm sich ein 16-jähriger Junge das Leben – nachdem er laut seinen Eltern mit hunderte Nachrichten mit ChatGPT austauschte, dabei auch seine Absichten deutlich machte und den Bot in seine Entscheidung mit einbezog. Die Familie verklagte OpenAI. Die Tragödie entfachte eine hitzige Debatte darüber, wie groß die Verantwortung von KI-Anbietern wirklich ist – und ob die bestehenden Schutzmechanismen ausreichen.
OpenAI reagiert mit technischen Maßnahmen – aber eben auch mit einem klaren Signal: Wenn eine KI wie ChatGPT im Alltag mit Millionen Menschen kommuniziert, muss sie wissen, wer da vor ihr sitzt. Teenager? Erwachsener? Oder jemand in einer akuten Krise?
Fortschritt oder digitaler Elternstaat?
Automatische Alterserkennung klingt nach technischer Brillanz – ist aber auch ein gefährliches Spiel. Kinder und Jugendliche müssen natürlich geschützt werden, besonders wenn es um sensible Themen wie Sexualität oder psychische Gesundheit geht. Aber wie weit darf ein Unternehmen wie OpenAI gehen, um „für Sicherheit zu sorgen“?
Wenn eine KI im Zweifel immer die Kinder-Version ausspielt, könnte das dazu führen, dass auch Erwachsene mit angezogener Handbremse chatten – nur weil sie sich nicht „authentifizieren“ wollen oder können. Und die Aussage, im Notfall sogar die Polizei einzuschalten? Klingt sinnvoll, kann aber auch zur tickenden Überwachungsfrage werden.
Technischer Fortschritt darf nie zum Ersatz für echte Verantwortung werden – weder bei Eltern, noch bei Unternehmen. Und schon gar nicht bei der Frage, ob eine KI besser weiß, wie alt wir sind, als wir selbst.