CEO și co-fondator al firmei americane OpenAI, Altman și-a manifestat frecvent temerile cu privire la potențialele consecințe ale Chatbot-urilor IA pe care compania sa le creează, inclusiv celebrul ChatGPT lansat anul trecut.

Pe lângă eliminarea locurilor de muncă sau dispariția rasei umane, pe care experții le profețesc deja, iată câteva dintre cele mai mari îngrijorări ale lui Altman cu privire la Inteligența Artificială, potrivit Fortune.

Sam Altman, despre cea mai mare spaimă a sa privind inteligența artificială

„Am multe nopți în care nu pot dormi din cauza ideii ipotetice că am făcut deja ceva extrem de rău lansând ChatGPT. Poate că a fost ceva greu și complicat în sistemul pe care l-am făcut. Ceva ce atunci nu am înțeles și acum începem să realizăm”, a declarat Sam Altman.

El a comparat IA cu modul în care a fost văzută energia nucleară.

”Este ca atunci când spunem că materialele nucleare reprezintă și pericole și beneficii reale, afectând întregul glob. Ar fi bine, însă, să putem sta de vorbă cu oamenii care fac aceste sisteme și să facem teste de siguranță înainte de a le lansa”, a comentat Sam Altman, apreciind că IA ar trebui reglementată la fel ca energia atomică.

 El a vorbit și despre faptul că oamenii își pot da seama acum dacă o imagine este photoshopată. ”Am câteva temeri cu privire la asta… dar noi, ca societate, vom învăța foarte repede tehnici pentru a contracara acest lucru”, susține Altman.

 Săptămâna trecută, CEO-ul HP, Enrique Lores, a declarat că IA va schimba semnificativ modul în care angajații își folosesc timpul. „Multe activități care astăzi necesită o zi pentru a fi realizate vor avea nevoie de câteva secunde”, a declarat pentru Yahoo Finance.

Dar pentru moment, afirmă Altman, este mai probabil ca oamenii să fie „mai eficienți” decât IA,

 Co-fondatorul firmei OpenAI, Altman a tras, ani la rând, un semnal de alarmă cu privire la riscurile potențiale ale IA ani de zile. În 2015, în timp ce conducea incubatorul de start-up Y Combinator, a co-fondat OpenAI împreună cu Elon Musk, directorul executiv al Tesla. Într-o postare pe blog la acea vreme el susținea că guvernele ar trebui să reglementeze cele mai puternice instrumente ale IA.

„Într-o lume ideală, reglementările ar pune frână celor răi și i-ar încuraja pe cei buni”, a scris el.

 În 2018, când OpenAI a publicat o declarație cu privire la misiunea sa, a promis că va acorda prioritate siguranței, ceea ce presupunea implicarea autorităților de reglementare. În 2021, când compania a lansat DALL-E, un instrument IA care creează imagini din comenzi text, compania l-a trimis pe șeful proiectului, Ilya Sutskever, să prezninte noua tehnologie în fața Congresului.

O cursă scăpată de sub control

 Pe de altă parte, mulți ingineri de la Amazon, DeepMind, Google, Meta și Microsoft, au cerut organizațiilor să pună frână oricăror sisteme de IA care sunt mai inteligente decât acest chatbot extrem de puternic și popular. ”Solicităm tuturor laboratoarelor de Inteligență Artificială să întrerupă imediat, timp de cel puțin 6 luni, pregătirea sistemelor de IA mai puternice decât GPT-4. Această pauză ar trebui să fie verificabilă și să includă toți actorii-cheie.

În cazul în care o astfel de pauză nu poate fi adoptată rapid, guvernele ar trebui să intervină și să instituie un moratoriu”. Ei susțin că ChatGPT-4 i-a „blocat” pe giganții Microsoft și Google într-o „cursă scăpată de sub control pentru a dezvolta și a implementa minți digitale tot mai puternice, pe care nimeni, nici măcar creatorii lor, nu le pot înțelege, prezice sau controla”. La rândul lor, guvernele globale nu prea știu cum să abordeze IA și riscurile pe care le poate prezenta, acum sau în viitorul apropiat.

Guvernul de la Londra a decis recent să nu creeze un nou organism de reglementare a IA și, în schimb, să adopte o politică de „permisivă” față de tehnologia în expansiune. Experții în tehnologie au comparat dezvoltarea rapidă a IA cu evoluția și ascensiunea rapidă a rețelelor sociale.