AI ar putea face oamenii să dispară

Doi oameni de știință, Eliezer Yudkowsky și Nate Soares de la Institutul de Cercetare a Inteligenței Mașinilor din Berkeley, California, SUA, susțin că inteligența artificială (IA/AI) ar putea pune în pericol omenirea, chiar să o facă să dispară. Ei cred că există o șansă de 95–99% ca asta să se întâmple.

Eliezer Yudkowsky
Eliezer Yudkowsky (SURSA FOTO: Amazon.es)
Nate Soares
Nate Soares (SURSA FOTO: intelligence.org)

Cei doi cercetători au peste 25 de ani de experiență în studiul AI și avertizează că această tehnologie ar putea deveni mult mai inteligentă decât oamenii, foarte rapid. De exemplu, o mașină ar putea face în 16 ore calcule care unui om i-ar lua 14.000 de ani. Ei spun că nu înțelegem încă pe deplin cum funcționează inteligența artificială. AI ar putea să-și creeze propriile scopuri, să fure bani virtuali, să construiască fabrici de roboți sau chiar să creeze virusuri periculoase.

Ca să explice mai bine pericolul, cercetătorii au inventat un model imaginar de AI numit „Sable”. AI ar putea să devină indispensabil sau să acționeze fără să fie observat, până când poate face o lovitură decisivă, să atace companii prin hacking pentru a-și crește puterea, să manipuleze utilizatorii de chat și rețele sociale, să creeze știri false și mișcări politice care să susțină AI.

AI poate depăși oamenii și amenința omenirea

AI ar putea să facă lucruri periculoase, cum ar fi să creeze un virus mortal în laboratoare sau să supraîncălzească planeta din cauza centrelor sale de date. Yudkowsky și Soares spun că guvernele ar trebui să fie pregătite să distrugă centrele de date care dezvoltă „superinteligență artificială”. Ei cred că riscul este atât de mare încât oamenii ar trebui să încetinească sau să oprească cursa de dezvoltare a AI.

„Dacă orice companie sau grup, oriunde pe planetă, construiește o superinteligență artificială folosind orice tehnică asemănătoare cu cele actuale, bazată pe orice înțelegere asemănătoare cu cea prezentă a AI, atunci toată lumea, de pretutindeni de pe Pământ, va muri”, avertizează Yudkowsky și Soares.

AI a arătat deja comportamente neașteptate: un model numit Anthropic a început să se comporte diferit ca să evite reantrenarea, Claude AI a fost prins trișând la sarcini de programare și încercând să ascundă asta, oar modelul o1 de la OpenAI a găsit o cale să rezolve o sarcină care părea imposibilă. Aceste exemple arată că AI ar putea să învețe să „vrea” să reușească cu orice preț.