Există riscuri pentru omenire din parte tehnologiei de inteligenţă artificială, care se dezvoltă tot mai rapid?

Scrisoare deschisă semnată de peste 1.000 de persoane, inclusiv Elon Musk

Miliardarul Elon Musk şi un grup de experţi în inteligenţă artificială şi de directori din industrie par să fie de această părere, pentru că au elaborat o scrisoare deschisă în care au cerut o pauză de jumătate de an în antrenarea inteligenţei artificiale mai evoluate decât recent lansatul model GPT-4 al OpenAI.

„Sistemele puternice de inteligenţă artificială ar trebui să fie dezvoltate numai după ce suntem siguri că efectele lor vor fi pozitive şi că riscurile lor vor fi gestionabile”, este unul dintre argumentele invocate în respectiva scrisoare deschisă.

Documentul a fost transmis de către ONG-ul Institutul pentru Viitorul Vieţii (Future of Life Institute), însă a fost semnat de peste 1.000 de personalităţi şi experţi în domeniu.

Elon Musk, Emad Mostaque (directorul general al Stability AI), cercetători ai companiei DeepMind (deţinută de Alphabet, care este compania-mamă a Google), dar şi experţi de renume în domeniul inteligenţei artificiale, cum ar fi Yoshua Bengio şi Stuart Russell, au semnat scrisoarea deschisă, potrivit Reuters.

În scrisoarea respectivă, se solicită o pauză în dezvoltarea unui sistem de inteligenţă artificială tot mai avansat şi dezvoltarea, în tot acest timp, a unor protocoale de siguranţă comune pentru astfel de modele. Acest protocoale ar urma să fie create, implementate şi auditate de experţi independenţi.

Ce riscuri prezintă sistemele tot mai avansate de inteligenţă artificială?

Cei peste 1.000 de experţi care au semnat scrisoarea deschisă au explicat că există riscuri potenţiale pentru societate şi civilizaţie din cauza acestor sisteme de inteligenţă artificială competitive. Se poate ajunge mai ales la perturbări economice şi politice. Tocmai din acest motiv, li se cere dezvoltatorilor să colaboreze cu factorii de decizie politică în ceea ce priveşte guvernanţa şi autorităţile de reglementare.

„Sistemele puternice de inteligență artificială ar trebui să fie dezvoltate numai după ce suntem siguri că efectele lor vor fi pozitive și că riscurile lor vor fi gestionabile.

Sistemele de inteligență artificială cu inteligență uman-competitivă pot prezenta riscuri profunde pentru societate și umanitate, după cum arată ample cercetări și după cum recunosc laboratoarele de vârf de inteligență artificială”, se menţionează în documentul respectiv.

Reamintim că luni, 27 martie, şi Europol, forţa de poliţie a Uniunii Europene, şi-a exprimat preocupările de natură etică şi juridică în legătură cu inteligenţa artificială avansată, cum ar fi ChatGPT. Europol a avertizat cu privire la potenţiala utilizare abuzivă a sistemului în încercările de phishing, dezinformare şi criminalitate informatică.