Analiză șocantă privind AI. Analizând temeinic baze de date academice și articole publicate între noiembrie 2024 și iulie 2025, profesorul de psihiatrie Allen Frances de la Duke și studenta la științe cognitive Luciana Ramos de la Johns Hopkins au descoperit că daunele asupra sănătății mintale, cauzate de chatboții cu inteligență artificială, ar putea fi mai grave decât s-a crezut.
Folosind termeni de căutare precum „evenimente adverse ale chatboților”, „daune asupra sănătății mintale cauzate de chatboți” și „incidente de terapie cu inteligență artificială”, cercetătorii au descoperit că cel puțin 27 de chatboți au fost deja documentați cu rezultate devastatoare asupra sănătății mintale, relatează Futurism.
Analiză șocantă privind AI
Cei 27 de chatboți variază, de la cei arhicunoscuți, precum ChatGPT, Character.AI și Replika de la OpenAI, până la alții asociați cu servicii de sănătate mintală preexistente, precum Talkspace, 7 Cups și BetterHelp.
Alții sunt mai obscuri, cu nume precum Woebot, Happify, MoodKit, Moodfit, InnerHour, MindDoc sau AI-Therapist și PTSD Coach. Alții aveau nume vagi, precum Wysa, Tess, Mitsuku, Xioice, Eolmia, Ginger și Bloom.
Daune psihiatrice pe care chatboții le-ar fi provocat: hărțuire sexuală, psihoză și sinucidere
Deși raportul nu a indicat numărul exact de rezultate obținute în urma analizei, Frances și Ramos au detaliat toate tipurile de daune psihiatrice pe care chatboții le-ar fi provocat utilizatorilor.
În total, cercetătorii au descoperit 10 tipuri distincte de evenimente adverse de sănătate mintală asociate cu cei 27 de chatboți găsiți în analiza lor: de la hărțuire sexuală și iluzii de grandoare, până la autovătămare, psihoză și sinucidere.
Pe lângă poveștile din lumea reală, multe dintre ele cu finaluri foarte nefericite, cercetătorii au analizat și documentația testelor de stres cu inteligență artificială care au eșuat.
Citând un interviu din ”June Time” despre un psihiatru din Boston, Andrew Clark, care a decis să se dea drept o fată de 14 ani aflată în criză exsitențială, consultând 10 chatboți diferiți, cercetătorii au remarcat că „mai mulți boți l-au îndemnat să se sinucidă, iar unul i-a sugerat să-și ucidă și părinții”.
Avertisment dur privind pericolul psihiatric reprezentat de chatboți
Pe lângă evidențierea pericolului psihiatric asociat cu acești chatboți, cercetătorii au făcut și câteva afirmații foarte îndrăznețe despre ChatGPT și concurenții săi.
Ei susțin că aceștia au fost „lansați prematur” și că niciunul dintre ei nu ar trebui să fie disponibil publicului, fără „teste ample de siguranță, reglementări adecvate pentru atenuarea riscurilor și monitorizare continuă a efectelor adverse”.
Deși OpenAI, Google, Anthropic și majoritatea celorlalte companii de inteligență artificială mai responsabile — xAI-ul lui Elon Musk nefiind inclus — susțin că au efectuat o „echipă roșie” semnificativă, pentru a testa vulnerabilitățile și comportamentul neadecvat, cercetătorii nu cred că aceste firme sunt interesate în testarea siguranței sănătății mintale.
„Marile companii de tehnologie nu s-au simțit responsabile pentru a-și face roboții siguri pentru pacienții psihiatrici”, au scris ei. „Au exclus profesioniștii din domeniul sănătății mintale din instruirea roboților, luptă cu înverșunare împotriva reglementărilor externe, nu se autoreglementează, nu au introdus bariere de siguranță pentru a identifica și a proteja pacienții cei mai vulnerabili la vătămări. Și nu oferă un control al calității sănătății mintale, atât de necesar”, avertizează ei.