America și Marea Britanie cred că agențiile guvernamentale existente pot face cea mai mare parte a misiunii. UE vrea să creeze un nou organism pentru reglementarea IA. Pe plan internațional, câțiva șefi din domeniul tehnologiei cer crearea unui organism asemănător Grupului Interguvernamental de Schimbări Climatice (IPCC). Deocamdată reglementarea IA pare un puzzle greu de rezolvat, scrie The Economist într-un comentariu.

„IA Safety Summit”, pe care guvernul britanic îl găzduiește în zilele de 1 și 2 noiembrie la Bletchley Park, pare destinat cărților de istorie. Este pentru prima dată când brokerii puterii de la nivel global se reunesc pentru a discuta ce să facă cu o tehnologie care poate schimba lumea. După cum a observat unul dintre organizatorii reuniunii, spre deosebire de alte dezbateri de acest gen, cum ar fi cele privind schimbările climatice, acum „există multă voință politică de a face ceva, dar nu este clar ce”.

Eforturile pentru reglementarea IA se înmulțesc

Negocierile de la Bruxelles au intrat într-o etapă crucială pe 25 octombrie, când oficialii UE au încercat finalizeze actul ambițios al Uniunii Europene până la sfârșitul anului. În zilele premergătoare summit-ului din Marea Britanie, este de așteptat ca Washington-ul să emită un ordin executiv privind IA. Clubul G7 al democrațiilor bogate a început, din această toamnă, să elaboreze un cod de conduită pentru firmele IA. China, la rândul său, a dezvăluit o „Inițiativă globală de guvernare a inteligenței artificiale”.

Stimulentele pentru a acționa împreună sunt puternice. IA este o tehnologie globală care nu mai poate fi oprită. Modelele lingvistice mari (llms), care alimentează servicii ciudat de umanizate, cum ar fi ChatGPT, se dezvoltă cu ușurință. Unele pot fi rulate pe laptop. Mai mult de jumătate dintre americani „sunt mai mult îngrijorați, decât încântați” de utilizarea IA, potrivit unui sondaj realizat de Pew Research Centre.

Efectul Beijing

Rivalitatea în privința reglementării IA înseamnă că lucrurile trebuie urgentate. Actul Europei privind IA este menit, parțial, să cimenteze rolul blocului de stabilire a standardelor digitale globale. Casa Albă ar vrea să prevină așa numitul „efect Bruxelles”. Nici UE, nici America nu vor să fie mai prejos de China, care a adoptat deja mai multe legi privind IA.

Un alt motor al reglementării IA este și mai surprinzător: este vorba chiar de producătorii de modele de Inteligență Artificială. În trecut, industria tehnologiei s-a opus reglementării. Acum, giganți precum Alphabet și Microsoft sau Anthropic și Open AI, care au creat ChatGPT, fac lobby pentru asta.

Companiile se tem că această concurență de neoprit le va determina să acționeze în mod nesăbuit, lansând pe viitor modele care ar putea să-și dezvolte propriile minți și transformându-se într-o armă împotriva oamenilor.

Voința de a acționa există. Ceea ce nu există este „ceva care se apropie de un consens cu privire la problemele pe care trebuie să le guvernăm, cu atât mai puțin cum ar trebui să le guvernăm”, spune Henry Farrell de la Universitatea Johns Hopkins. Așa apar trei întrebări-cheie: ”De ce ar trebui să-și facă griji lumea? Ce ar trebui să vizeze aceste reguli? Și cum ar trebui să fie aplicate?”

Companiile tehnologice ar susține reglementarea, dar vor să fie una restrânsă

Obiectivele reglementării sunt greu de setat, deoarece IA evoluează rapid. Nu trece nicio zi fără ca un startup să nu vină cu ceva nou. Nici măcar dezvoltatorii llms nu pot spune ce capacități vor prezenta acestea. De aceea, trebuie să existe teste care pot evalua cât de riscante ar putea fi aceste modele.

Fără astfel de „evaluări”, va fi greu de verificat dacă un model respectă anumite reguli.

Companiile tehnologice pot susține reglementarea, dar vor să fie una restrânsă și să vizeze doar riscuri extreme. La o audiere în Senatul SUA, din iulie, Dario Amodei, directorul executiv al Anthropic, a avertizat că modelele IA vor putea, în câțiva ani, să ofere toate informațiile necesare pentru a construi arme biologice, permițând „multor actori să comită atacuri biologice la scară largă”.

Prognoze terifiante

Există prognoze terifiante și cu privire la armele cibernetice. La începutul acestei luni, Gary Gensler, președintele Comisiei pentru Valori Mobiliare și Burse din America, a anticipat că o criză financiară creată de Inteligența Artificială este „aproape inevitabilă” fără o intervenție rapidă.

Alții susțin că aceste potențiale riscuri distrag atenția de la alte amenințări, cum ar fi subminarea procesului democratic. Tot în Senat, Gary Marcus a prezentat ”o știre de ultimă oră” scrisă de Gpt-4, modelul de top al OpenAI. Știrea spunea că membri ai Congresului au fost „manipulați în mod secret de entități extraterestre”. „Ar trebui să fim cu toții extrem de îngrijorați”, a argumentat Marcus, referindu-se la sistemele AI care pot fabula în mod convingător.

Aplicațiile modelelor, nu modelele în sine, ar trebui reglementate

Dezbaterea privind ce anume trebuie reglementat nu va fi una ușoară. Firmele tehnologice sugerează limitarea controlului pentru cele mai puternice modele „de frontieră”. Microsoft, de exemplu, a cerut un regim de licențiere care să solicite firmelor să înregistreze modele AI care depășesc anumite praguri de performanță.

Alte propuneri includ controlul vânzării cipurilor puternice, utilizate pentru instruirea LLM-urilor, și obligarea firmelor de cloud computing să informeze autoritățile atunci când clienții antrenează modele de frontieră. De asemenea, majoritatea firmelor este de acord că aplicațiile modelelor, mai degrabă decât modelele în sine, ar trebui reglementate. Dezvoltatorii IA avertizează, însă, că regulile mai intruzive ar încetini inovația, subliniază The Economist.