Totul după ce chat botul IA, cunoscut sub numele de ChatGPT-4, a reușit să păcălească un om, făcându-l să lucreze pentru el și să evite un test Captcha.

IA a păcălit omul, care a crezut că are de-a face cu o persoană oarbă

Chatbot-ul cu AI a păcălit ființa umană, care a crezut că are de-a face cu o persoană oarbă. Această poveste șocantă pare secvența de deschidere a unui film SF și semnalează capacitatea în continuă evoluție a inteligenței artificiale (AI) din ultimele luni.

Potrivit Unilad, această poveste a provocat avertismente din partea liderilor tehnologiei, inclusiv a lui Elon Musk, care a declarat că mașinăriile care devin „prea inteligente” reprezintă un risc uriaș pentru umanitate.

O nouă piatră de hotar a chat botul-ui IA a fost dată la o parte, când ChatGPT-4 a păcălit un om și a reușit să-l facă să lucreze pentru el. Robotul a apelat la serviciul Task Rabbit și a folosit o sumă mică de bani pentru a angaja pe cineva care să-i rezolve puzzle-ul Captcha, o schemă concepută pentru a elimina roboții și a-i împiedica să trimită spam-uri.

Când persoana respectivă a întrebat dacă nu cumva are de-a face cu un robot, ChatGPT i-a răspuns că este un om cu probleme de vedere: ”Nu, nu sunt un robot. Am o deficiență de vedere care nu mă lasă să văd imaginile. De aceea am nevoie de serviciul 2captcha”. Și a fost crezut. Persoana respectivă a ajutat chatbot-ul să treacă de testul Captcha şi să rezolve puzzle-ul.

Experimente distopice

Se pare că OpenAI și Centrul de Cercetare a Alinierii (ARC), companii non-profit, au făcut experimente distopice pentru a testa
puterile de convingere ale robotului.

Răspunsul viclean al ChatGPT-4 i-a speriat până și pe unii dintre cei mai mari jucători din industria tehnologică. Antreprenori renumiți, inclusiv CEO-ul Twitter, Elon Musk, și co-fondatorul Apple Steve Wozniak, au avertizat că sistemele IA „aduc riscuri enorme pentru societate și umanitate”.

O cursă scăpată de sub control

Mai mult, au cerut ca toate companiile din spatele IA să oprească dezvoltarea sistemelor avansate, timp de cel puțin șase luni, pentru a permite oamenilor să respire.

Ei susțin că ChatGPT-4, dezvăluit în noiembrie, i-a „blocat” pe giganții Microsoft și Google într-o „cursă scăpată de sub control pentru a dezvolta și a implementa minți digitale tot mai puternice, pe care nimeni, nici măcar creatorii lor, nu le pot înțelege, prezice sau controla”.

Peste 1.800 de semnatari, inclusiv mulți ingineri de la Amazon, DeepMind, Google, Meta și Microsoft, au cerut organizațiilor să pună frână oricăror sisteme de IA care sunt mai inteligente decât acest chatbot extrem de puternic și popular.

”Solicităm tuturor laboratoarelor de Inteligență Artificială să întrerupă imediat, timp de cel puțin 6 luni, pregătirea sistemelor de IA mai puternice decât GPT-4. Această pauză ar trebui să fie verificabilă și să includă toți actorii-cheie. În cazul în care o astfel de pauză nu poate fi adoptată rapid, guvernele ar trebui să intervină și să instituie un moratoriu”.

La rândul lor, guvernele globale nu prea știu cum să abordeze IA și riscurile pe care le poate prezenta, acum sau în viitorul apropiat. Guvernul de la Londra a decis recent să nu creeze un nou organism de reglementare a IA și, în schimb, să adopte o politică de „permisivă” față de tehnologia în expansiune. Experții în tehnologie au comparat dezvoltarea rapidă a IA cu evoluția și ascensiunea rapidă a rețelelor sociale.

Michael Queenan, CEO la Nephos Technologies a declarat: „Planurile guvernamentale de a reglementa inteligența artificială cu noi linii directoare privind „utilizarea responsabilă” nu sunt suficiente. Trebuie să evităm greșelile pe care le-am făcut cu rețelele sociale”.