Ilya Sutskever, unul dintre fondatorii din spatele ChatGPT, a propus construirea unui refugiu sigur, un buncăr al apocalipsei AI destinat să găzduiască cercetătorii de top din OpenAI în cazul în care inteligența artificială ar scăpa de sub control. Potrivit unei relatări recente, planul său a fost dezvăluit în cadrul unei întâlniri interne organizate vara trecută.

Un buncăr al apocalipsei AI pentru cercetători în fața unui risc iminent

În vara anului 2023, Ilya Sutskever a convocat o reuniune cu principalii cercetători de la OpenAI, unde a prezentat ideea construirii unui buncăr al apocalipsei AI.

„Odată ce vom intra cu toții în buncăr…”, a spus el.

În acel moment un alt cercetător l-a întrerupt, întrebând: „Buncăr?“

Răspunsul a venit prompt: „Cu siguranță vom construi un buncăr înainte să lansăm inteligența artificială generativă”.

Scopul era protejarea echipei în fața unor eventuale turbulențe geopolitice sau conflicte aprinse între puterile mondiale generate de apariția unei inteligențe artificiale generale (AGI), ce ar putea depăși inteligența umană.

Teama de haos geopolitic și competiție acerbă

Planul de a construi acest refugiu subliniază anxietățile majore care există în spatele scenei dezvoltării AI.

Sutskever a dorit să ofere o opțiune sigură pentru oamenii-cheie din companie, deși a fost clar că participarea ar fi fost voluntară:

„Bineînțeles, va fi opțional dacă vrei să intri în buncăr”, a spus el.

Această inițiativă nu este o simplă idee izolată, ci a fost un subiect des abordat în cadrul discuțiilor interne, conform surselor apropiate situației.

Ilya Sutskever – creierul și conștiința morală din spatele ChatGPT

Ilya Sutskever este considerat o figură aproape mistică în OpenAI, recunoscut nu doar pentru abilitățile sale tehnice excepționale, ci și pentru abordările filosofice privind AI.

Autorul Karen Hao, care a documentat aceste discuții în cartea sa „Imperiul AI: Vise și coșmaruri în OpenAI-ul lui Sam Altman”, remarcă faptul că Sutskever a discutat frecvent în termeni morali și metafizici despre impactul inteligenței artificiale.

AI, OpenAI, inteligenta artificiala, teama de AI, razboi AI
SURSA FOTO: Dreamstime

Pe lângă rolul său tehnic esențial, el a început să acorde o atenție tot mai mare siguranței în domeniul AI, jonglând între progresul tehnologic și grijile legate de potențialele consecințe.

Temeri comune la nivel înalt în OpenAI

Teama că o inteligență artificială generală ar putea declanșa schimbări dramatice în lume nu este doar a lui Sutskever.

În mai 2023, CEO-ul OpenAI, Sam Altman, a semnat o scrisoare deschisă în care avertiza că AI ar putea reprezenta un „risc de dispariție” pentru omenire.

Cu toate acestea, în culisele companiei, aceste temeri par să fie chiar mai intense și personale. De altfel, tensiunile dintre dorința de creștere rapidă a afacerii și preocupările legate de siguranță au culminat în aceeași perioadă cu o criză majoră în conducerea OpenAI.

Lovitura de palat internă și conflictele din consiliul de administrație

Într-un episod tumultuos din 2023, Sutskever și directorul tehnic de atunci, Mira Murati, au orchestrat o lovitură de palat care l-a îndepărtat temporar pe Sam Altman din funcția de CEO.

Motivația lor principală a fost teama că Altman ocolește protocoalele de siguranță și preia prea mult control asupra direcției companiei.

Surse apropiate subliniază că Sutskever și Murati și-au exprimat neîncrederea față de capacitatea lui Altman de a gestiona responsabil dezvoltarea AGI.

„Nu cred că Sam este omul care ar trebui să aibă degetul pe buton pentru AGI”, i-au transmis ei consiliului de administrație.

O revenire rapidă și plecările ulterioare

Decizia de a-l îndepărta pe Altman a fost scurtă: în doar câteva zile, sub presiunea angajaților, investitorilor și a gigantului Microsoft, Altman și-a recăpătat poziția.

Ulterior, atât Sutskever, cât și Murati au părăsit compania. În ciuda caracterului neverbal al planului buncărului — acesta nu a fost niciodată oficial anunțat sau dezvoltat concret — el a devenit un simbol pentru cât de profund sunt preocupați cercetătorii privind impactul potențial al inteligenței artificiale asupra viitorului umanității.