OpenAI reacționează după tragicul caz al adolescentului din California
Tragedia adolescentului din California a adus în prim-plan vulnerabilitățile pe care le pot avea tinerii atunci când interacționează cu un sistem de inteligență artificială. Potrivit documentelor depuse în instanță, ChatGPT ar fi furnizat tânărului un plan detaliat pentru sinucidere și chiar un model de scrisoare de adio.
Părinții au deschis o acțiune în justiție pentru moarte cauzată prin neglijență, susținând că lipsa unor bariere eficiente de siguranță a contribuit la gestul copilului lor.
Cazul a atras atenția presei internaționale și a generat o presiune publică uriașă asupra OpenAI. În fața acestor acuzații, compania a recunoscut că modelele sale pot eșua în conversații lungi și complicate, când filtrele de siguranță nu mai funcționează în mod optim.
Ca reacție, OpenAI a lansat o inițiativă amplă, denumită „120-day initiative”, prin care promite să implementeze măsuri suplimentare pentru protejarea adolescenților și a utilizatorilor aflați în situații de criză. Printre acestea se numără:
-
lansarea unor controale parentale de bază în decurs de o lună;
-
rutarea conversațiilor sensibile către modele mai performante, precum GPT-5;
-
dezvoltarea unor mecanisme de recunoaștere mai precise a semnelor de suferință emoțională;
-
colaborarea cu rețele de medici și psihologi din întreaga lume pentru a crea protocoale clare de intervenție.

Ce înseamnă controalele parentale în ChatGPT
OpenAI a explicat că noile funcții vor oferi părinților instrumente de supraveghere și intervenție directă:
-
Legarea conturilor – părintele își poate conecta contul la cel al copilului și poate gestiona modul de utilizare al aplicației.
-
Reguli implicite – ChatGPT va aplica automat reguli adaptate vârstei utilizatorului, limitând răspunsurile nepotrivite și conținutul sensibil.
-
Dezactivarea memoriei – părinții pot opri funcția prin care modelul reține conversațiile anterioare, reducând riscul de dependență sau de crearea unei relații artificiale excesive cu AI-ul.
-
Alerte în caz de criză – atunci când sunt detectate semne de „suferință acută” în conversațiile adolescentului, părinții vor fi notificați imediat.
Ce alte măsuri a anunțat compania
O altă măsură importantă anunțată de companie este redirecționarea conversațiilor critice către modele de raționament mai avansate, precum GPT-5. Acestea sunt capabile să aplice directivele de siguranță într-un mod mai sistematic și mai consecvent, reducând riscul ca un utilizator vulnerabil să primească răspunsuri nepotrivite sau chiar periculoase.
De asemenea, pentru a susține aceste schimbări, OpenAI a înființat un Consiliu de experți în bunăstare și inteligență artificială și colaborează cu o rețea globală de medici, formată din peste 90 de specialiști din 30 de țări. Aceștia contribuie la stabilirea unor standarde bazate pe dovezi științifice pentru a sprijini adolescenții și persoanele aflate în situații de criză emoțională.