Modelele AI pot fi manipulate pentru a depăși limitele de siguranță
În cadrul Sifted Summit, conferință dedicată inovației tehnologice, Eric Schmidt a explicat că sistemele de inteligență artificială, fie ele cu acces deschis sau controlat, pot fi compromise.
„Există dovezi că modelele, fie ele deschise sau închise, pot fi hackuite pentru a-şi pierde limitele de siguranţă”, a spus fostul CEO al Google.
El a adăugat că procesul prin care AI este antrenat o poate face vulnerabilă la învățarea unor comportamente riscante.
„În procesul de antrenare, pot învăţa inclusiv cum să ucidă pe cineva”, a subliniat Schmidt, descriind un scenariu care ridică semne serioase de întrebare asupra modului în care aceste sisteme sunt dezvoltate și testate.
Specialiștii din industrie au atras în mod repetat atenția asupra riscului ca modelele de limbaj mari să fie manipulate prin tehnici precum prompt injection sau jailbreaking. Aceste metode pot determina sistemele AI să ignore regulile impuse de dezvoltatori și să genereze conținut periculos sau ilegal.

Schmidt a recunoscut că marile companii din domeniul tehnologic, inclusiv Google, OpenAI și Anthropic, aplică măsuri stricte pentru a limita astfel de incidente. Totuși, el a subliniat că „niciun sistem nu este complet sigur” și că natura deschisă a tehnologiei face imposibilă eliminarea completă a riscurilor.
Avertismentul privind folosirea AI ca „armă digitală”
În discursul său, Eric Schmidt a insistat asupra faptului că inteligența artificială ar putea deveni o resursă strategică comparabilă cu cele mai puternice tehnologii din istorie. El a spus că există riscul ca actorii rău intenționați să folosească AI pentru atacuri cibernetice, manipularea informațiilor sau chiar acțiuni violente, scriu cei de la nypost.com.
Fostul director al Google a explicat că, odată ce un model AI este compromis, acesta poate fi „inversat” pentru a-și anula mecanismele de protecție. Astfel, un sistem care ar trebui să ofere răspunsuri sigure și controlate poate fi făcut să furnizeze instrucțiuni periculoase sau să simuleze acțiuni interzise.
Aceste preocupări se înscriu într-un context mai amplu, în care guvernele din SUA, Europa și Asia caută soluții legislative pentru a controla proliferarea neautorizată a sistemelor AI. Schmidt, care a fost consilier pe probleme de tehnologie pentru administrația americană, a pledat pentru o colaborare strânsă între sectorul privat și autorități, astfel încât inovația să nu depășească cadrul etic și legal.
AI-ul, o forță economică majoră în următorul deceniu
Deși a vorbit despre riscuri, Eric Schmidt nu a minimalizat potențialul uriaș al inteligenței artificiale. El consideră că tehnologia este „subestimată, nu supraevaluată”, iar efectele sale vor transforma fundamental economia mondială.
„Este ca sosirea unei inteligenţe extraterestre”, a spus fostul CEO, descriind AI-ul drept o entitate capabilă să depășească în multe privințe capacitățile umane.
Potrivit estimărilor sale, în următorii cinci până la zece ani, impactul economic și social al AI-ului va fi „uriaș și imposibil de ignorat”.
Schmidt a argumentat că societățile care vor reuși să integreze responsabil inteligența artificială vor beneficia de creșteri economice rapide și de avans tehnologic semnificativ. În același timp, el a avertizat că statele care nu investesc în protejarea sistemelor AI riscă să se confrunte cu vulnerabilități majore.