Sam Altman avertizează: Inteligența artificială ar putea păcăli sistemele bancare și declanșa o criză financiară de proporții

Directorul executiv al OpenAI, Sam Altman, a lansat marți un avertisment serios în fața autorităților din Statele Unite, subliniind că inteligența artificială (AI) a ajuns într-un punct în care poate păcăli cu ușurință sistemele de securitate bancară bazate pe amprentă vocală.

Intervenția sa a avut loc în cadrul unei conferințe organizate de Federal Reserve la Washington, unde Altman a atras atenția asupra pericolelor tot mai evidente pe care le implică utilizarea tehnologiei AI în scopuri frauduloase.

Potrivit acestuia, riscul unei crize financiare declanșate de o fraudă de amploare este real, mai ales în contextul în care unele instituții bancare continuă să utilizeze amprenta vocală ca metodă de autentificare.

Altman a criticat dur această practică, considerând că este complet depășită și extrem de vulnerabilă în fața avansului tehnologic al AI.

„Ce mă îngrozește cel mai mult este faptul că unele instituții financiare acceptă în continuare amprenta vocală ca metodă de autentificare.

E o nebunie să mai facem asta. AI-ul a depășit complet această metodă de verificare”, a declarat Sam Altman, potrivit Fortune.com.

Tehnologia voiceprint a devenit tot mai populară în rândul băncilor

În ultimii ani, tehnologia voiceprint — care presupune ca utilizatorul să rostească o frază predefinită, utilizată ca semnătură vocală unică — a devenit tot mai populară în rândul băncilor, în special pentru clienții cu conturi importante. Cu toate acestea, avansul accelerat al modelelor AI capabile să cloneze vocea umană și chiar imaginea cuiva face ca aceste metode să devină din ce în ce mai nesigure.

Altman a explicat că tehnologia actuală de clonare vocală bazată pe AI este atât de sofisticată, încât vocile generate devin aproape imposibil de deosebit de cele reale. A adăugat că este suficient ca AI-ul să aibă acces la câteva secunde de înregistrare audio, disponibile public — cum ar fi un mesaj vocal sau un clip video — pentru a reproduce fidel vocea unei persoane.

Acest tip de atac, a arătat el, poate înșela cu ușurință sistemele automate de verificare vocală și poate permite accesul neautorizat la conturi bancare sau la alte sisteme protejate.

Preocupările sale au fost împărtășite și de Michelle Bowman, vicepreședinta Federal Reserve pentru Supraveghere, care a sugerat că este necesară o cooperare mai strânsă între autoritățile de reglementare și industria AI pentru a identifica metode de securitate alternative.

Ea a apreciat că este un subiect asupra căruia ar trebui să înceapă un dialog aplicat și susținut între instituții și dezvoltatorii de tehnologie.

Modelele AI de ultimă generație sunt promovate pentru potențialul lor pozitiv în tot mai multe domenii-cheie

Toate aceste comentarii vin într-un moment în care modelele AI de ultimă generație sunt promovate pentru potențialul lor pozitiv în domenii esențiale, precum medicina, cercetarea sau sustenabilitatea.

OpenAI susține că tehnologiile dezvoltate de companie sunt deja folosite în studii clinice pentru a anticipa eficiența medicamentelor și că ar putea, în viitor, să contribuie semnificativ la dezvoltarea de tratamente pentru boli rare, la crearea de vaccinuri inovatoare sau la proiectarea de enzime capabile să genereze combustibili ecologici.

Totuși, Altman a avertizat că aceeași tehnologie care aduce progrese uriașe în știință și sănătate poate fi deturnată în scopuri periculoase. El a menționat că modelele AI pot fi utilizate și pentru dezvoltarea de agenți patogeni artificiali sau pentru a facilita realizarea de arme biologice.

Deși accesul la laboratoare și la materiale biologice periculoase este, în prezent, restricționat, el a subliniat că aceste bariere nu sunt de neînvins și că riscul utilizării malefice a AI nu trebuie subestimat.