Sfârșitul epocii „AI-ului care știe tot”: ChatGPT renunță la sfaturile juridice și deschide drumul modelelor specializate

În fața noastră se conturează era modelelor specializate, bazate pe expertiză reală, date verificabile și judecată etică. Este începutul unui proces de selecție naturală: doar tehnologiile capabile să gândească riguros și să susțină cu dovezi afirmațiile lor vor rămâne relevante.

Ne aflăm într-un moment crucial în evoluția inteligenței artificiale. După ani în care modelele generaliste au fost lăudate drept „soluții universale”, vine prima reacție de ajustare: OpenAI a anunțat că ChatGPT nu va mai oferi sfaturi juridice și medicale.

„Când un gigant precum OpenAI anunță că nu mai oferă sfaturi juridice sau medicale, pare, la prima vedere, o retragere precaută. În realitate, e o confesiune, un moment în care o tehnologie care părea omniscientă recunoaște, în sfârșit, că există domenii unde improvizația poate fi periculoasă și că între „a răspunde” și „a avea dreptate” e o distanță cât între Wikipedia și un verdict judiciar.  Nu e o simplă decizie tehnică, ci e un semnal cultural. Un semn că marile modele de limbaj încep să înțeleagă ceea ce mulți dezvoltatori independenți au intuit deja: în domeniile sensibile, improvizația e un risc, nu o virtute.

OpenAI nu face un pas înapoi, ci ne oferă tuturor un semnal de piață: epoca modelelor universale, mesianice, se schimbă. Urmează generația sistemelor specializate, construite pe expertiză reală și pe date verificabile. Asta facem noi cu Lawren: arătăm că viitorul AI-ului nu e în volum, ci în precizie”, spune Victor Buju, avocat și cofondator al Lawren.ai, un model lingvistic dezvoltat în România, specializat pe legislație.

Victor Buju, Partner Buju Stanciu & Asociații

Când viteza înlocuiește rigoarea

Modelele generaliste, precum ChatGPT, impresionează prin performanța lor lingvistică, dar nu prin capacitatea de raționament. Ele pot furniza informații generale, scrie cod sau simula empatia, însă nu sunt capabile să înțeleagă pe deplin contextul juridic, moral sau social al unei decizii cu consecințe reale.

„Adevărul e că aceste modele nu gândesc, ci prezic. Ele funcționează pe baza unui calcul al probabilității de cuvinte, nu al logicii umane. În drept, unde consecința e literă, iar nu metaforă, un asemenea mecanism e periculos. Un răspuns juridic dat de un model generalist e o monedă aruncată în aer. Are șanse mari să sune bine, dar mici să fie corect”, explică avocatul Victor Buju.

De la confuzie la responsabilitate

Decizia OpenAI de a-și limita funcționalitățile reprezintă un gest de maturitate. Este o recunoaștere că modelele universale sunt eficiente pentru conversații, dar nu pot oferi ghidaj concret în situații sensibile.

„AI-ul nu e avocat, nici medic, ci e doar un instrument. Diferența o face felul în care îl antrenezi. În Lawren, am ales să nu construim o ustensilă care vorbește frumos, ci una care gândește corect: un sistem care citează legea, o înțelege în context și nu promite ce nu poate dovedi”, spune Cătălina Popescu, CEO-ul Lawren.ai.

Adevărul contează mai mult decât spectacolul

Lawren.ai este un sistem european de inteligență artificială juridică, dezvoltat în România, care utilizează un Knowledge Graph legislativ pentru a furniza răspunsuri precise, însoțite de citări automate din legislația națională și europeană. Fiecare răspuns este susținut de referințe legale, articole și norme metodologice.

„Lawren e construit pe două valori rare în AI-ul modern: transparență și verificabilitate. Preferăm un model care știe să spună ‘nu știu’ decât unul care oferă un răspuns fals cu încredere maximă. Adevărul nu trebuie să fie spectaculos, ci verificabil”, spune Cătălina Popescu.

Cu mii de utilizatori activi și versiuni dedicate pentru sectoare reglementate precum energie, banking sau gambling, Lawren demonstrează că există o cale europeană, matură, către inteligența artificială juridică – una care nu înlocuiește rațiunea, ci o amplifică responsabil.

Lecția de leadership: specializarea este noul curaj

Într-o lume care pare să celebreze omnisciența, adevăratul curaj constă în a recunoaște „eu nu știu totul”. Aceasta este filosofia din spatele Lawren.ai și, paradoxal, tocmai ceea ce OpenAI recunoaște acum implicit.

„Specializarea nu e o limitare, e o strategie de supraviețuire. Cei care încearcă să facă AI pentru toate domeniile vor descoperi curând că superficialitatea e o formă de oboseală cognitivă. În schimb, modelele specializate, ancorate în cunoaștere formală și verificabilă, vor deveni infrastructura de bază a industriilor serioase”, spune avocatul Victor Buju.

Mulți ar putea vedea decizia OpenAI drept un semn de slăbiciune, însă în realitate marchează începutul unei selecții naturale: doar tehnologiile care au discernământ, respectă etica și se bazează pe informații verificabile vor rămâne relevante.

„AI-ul juridic nu e o joacă pe calculator. E o responsabilitate colectivă. Și da, e abia începutul. Ne aflăm într-un moment în care legea și tehnologia nu se mai pot ignora reciproc. Iar dacă alegem să le unim, trebuie s-o facem cu luciditate și atenție”, adaugă Cătălina Popescu.