CITEŞTE ŞI

Timp liber

Cel mai inteligent om din lume: “Aceste trei lucruri ar putea distruge specia umană”

Autor: Daniel Bob | sâmbătă, 02 ianuarie 2016 | 0 Comentarii

Celebru pentru teoriile sale cu privire la găurile negre şi la singularităţi gravitaţionale, astrofizicianul britanic Stephen Hawking devine din ce în ce mai cunoscut şi pentru avertismentele pe care le-a făcut cu privire la ameninţările cu care se va confrunta umanitatea în viitorul mai mult sau mai puţin îndepărtat.

Stephen Hawking suferă de o maladie neuronală motorie similară sclerozei laterale amiotrofice (ALS) şi de foarte mult timp a rămas paralizat şi nu poate vorbi decât cu ajutorul unui sintetizator de voce. Starea precară a sănătăţii nu l-a oprit, însă, pe celebrul profesor de la Universitatea Cambridge să-şi continue activitatea de cercetare. El a făcut o serie de comentarii cu privire la pericolele cu care se va confrunta omenirea pe termen mediu şi îndepărtat.

Una dintre ameninţări este reprezentată de dezvoltarea Inteligenţei Artificiale, sau pe scurt AI-ul care ni se pare că nu este niciodată suficient de bun în jocurile pentru PC sau console. Hawking face parte dintr-un grup restrâns dar în creştere de oameni de ştiinţă care şi-au exprimat îngrijorarea cu privire la viitorul Inteligenţei Artificiale. Acest tip de inteligenţă a maşinilor ar putea într-o zi să o egaleze sau chiar să o depăşească pe cea umană, fapt ce ar putea declanşa un scenariu apocaliptic de tipul celor exploatate deja de Hollywood în filme precum 'Matrix' sau 'Terminator'.
'Dezvoltarea unei inteligenţe artificiale complete ar putea însemna sfârşitul speciei umane', declara Hawking pentru BBC în decembrie 2014. Această declaraţie a fost făcută drept răspuns la o întrebare despre noul sintetizator inteligent de voce pe care îl foloseşte savantul.

Avertismentul lui Stephen Hawking nu a rămas fără ecou. Nimeni altul decât 'copilul teribil al erai digitale', miliardarul şi omul de afaceri Elon Musk, CEO al companiilor SpaceX şi Tesla Motors, a declarat la rândul său că inteligenţa artificială reprezintă 'cea mai gravă ameninţare existenţială la adresa omenirii'. În luna ianuarie a acestui an, Hawking, Musk şi alţi oameni de ştiinţă au semnat o scrisoare deschisă în care semnalează şi explică atât riscurile cât şi beneficiile dezvoltării sistemelor de inteligenţă artificială.

'Ţinând cont de uriaşul potenţial al inteligenţei artificiale, este important să studiem cum am putea să-i culegem roadele evitând potenţialul pericol pe care-l reprezintă', se precizează în scrisoare publicată online la 11 ianuarie de către organizaţia Future of Life Institute, organizaţie care îşi propune să găsească soluţii la ameninţările globale cu care se confruntă umanitatea.

Mulţi cercetători din domeniul inteligenţei artificiale doresc însă să calmeze lucrurile şi susţin că nu suntem nici măcar aproape de a produce o inteligenţă artificială capabilă de conştiinţă de sine şi cu o capacitate superioară celei umane.
'Ne aflăm la zeci de ani distanţă de orice tehnologie din acest domeniu care ar putea să ridice motive de îngrijorare', a susţinut Demis Hassabis, cercetător în domeniul AI la Google DeepMind, care tocmai şi-a prezentat noua realizare: un program AI care învaţă singur să se joace pe calculator. Cu toate acestea, 'este un moment bun să începem dezbaterile pe acest subiect', a adăugat el.

O altă ameninţare planează asupra societăţii umane încă de la începuturi: agresivitatea umană. Dacă maşinile pe care le construim nu ne vor ucide, am putea ca noi să le folosim pentru a face acest lucru. Stepehn Hawking este convins că agresivitatea umană poate duce la distrugerea întregii civilizaţii.

Fizicianul a făcut un tur al Muzeului Ştiinţelor de la Londra în compania unui câştigător al unui concurs, Adaeze Uyanwah, un profesor în vârstă de 24 de ani din California, al cărui premiu a fost tocmai întâlnirea cu celebrul astrofizician. Atunci când Uyanwah l-a întrebat ce defect uman ar dori să schimbe dacă ar putea, Hawking a răspuns: 'Mi-ar plăcea să corectez agresivitatea umană. Chiar dacă ne-a oferit şansa de a supravieţui pe când nu ieşisem încă din peşteri, pentru a dobândi mai multă hrană, teritorii sau partenere pentru reproducere, agresivitatea în prezent ameninţă să ne distrugă pe toţi'.

Spre exemplu, un război nuclear major ar pune capăt civilizaţiei şi ar putea chiar să ducă la dispariţia speciei umane, conform lui Hawking. Întrebat ce calitate umană ar dori să întărească, Hawking a ales empatia pentru că 'ne aduce împreună într-o stare paşnică şi plină de dragoste'.De asemenea, Stephen Hawking consideră că explorarea spaţiului este extraordinar de importantă pentru a asigura supravieţuirea speciei. 'Cred că pe termen lung viitorul omenirii este legat indisociabil de spaţiul cosmic, care reprezintă o importantă asigurare de viaţă pentru supravieţuirea noastră, ca specie, putând împiedica dispariţia omenirii prin colonizarea altor planete'.

Cea de-a treia ameninţare importantă cu care se va confrunta omenirea este cea legată de viaţa extraterestră. Încă din 2010 Stephen Hawking avertiza că, dacă există viaţă extraterestră inteligentă, s-ar putea să nu fie tocmai prietenoasă cu oamenii.

'Dacă vom fi vizitaţi de extratereştri, cred că urmările vor fi similare debarcării lui Cristofor Columb în America, eveniment care nu a mers tocmai bine din punctul de vedere al indigenilor americani', a susţinut Hawking într-unul din episoadele seriei 'Into the Universe with Stephen

Hawking', realizată de Discovery Channel.

Civilizaţiile extraterestre avansate ar putea deveni nomade prin Univers, căutând să cucerească şi să colonizeze orice planetă le iese în cale. 'Dacă aşa stau lucrurile, pentru ei ar fi important să exploateze resursele fiecărei planete pentru a putea construi şi mai multe nave stelare pentru a-şi putea continua drumul prin Univers. Cine ştie care ar putea fi limitele unei astfel de civilizaţii?'

De la ameninţarea reprezentată de sistemele de inteligenţă artificială care ar putea deveni conştiente de sine şi mai inteligente decât creatorii lor, până la întâlnirea cu o civilizaţie extraterestră avansată pornită să cucerească Universul sau ameninţarea propriei noastre agresivităţi care poate declanşa un război ce va pune capăt civilizaţiei, viitorul omenirii este sumbru pentru Stephen Hawking.AGERPRES

SPUNE-TI PAREREA Capital - Comenteaza Acum poti comenta si prin intermediul contului de facebook. DETALII >>
Postarea comentariilor se poate face in doua moduri:
  • Prin formularul de la finalul articolelor.
  • Prin intermediul contului de Facebook: în acest caz postarea comentariilor se face instant. Daca nu aveti deja cont de Facebook il puteti crea de aici https://ro-ro.facebook.com/
Echipa CAPITAL.
Capital - Comenteaza
Capital - Twitter
Capital - Google+
Transforma in PDF
Printeaza

EVZ

Economica.net

Ziare.com

AutoBild

Unica

Adevarul

Click

DZ

Animal Zoo

EVZ Monden

Capital - Articole similare

SPUNE-TI PAREREA Capital - Comenteaza Acum poti comenta si prin intermediul contului de facebook. DETALII >>
Postarea comentariilor se poate face in doua moduri:
  • Prin formularul de la finalul articolelor.
  • Prin intermediul contului de Facebook: în acest caz postarea comentariilor se face instant. Daca nu aveti deja cont de Facebook il puteti crea de aici https://ro-ro.facebook.com/
Echipa CAPITAL.

LASA UN COMENTARIU

Caractere ramase: 1000

NOTA: Va rugam sa comentati la obiect, legat de continutul prezentat in material. Orice deviere in afara subiectului, folosirea de cuvinte obscene, atacuri la persoana autorului (autorilor) materialului, afisarea de anunturi publicitare, precum si jigniri, trivialitati, injurii aduse celorlalti cititori care au scris un comentariu se va sanctiona prin cenzurarea partiala a comentariului, stergerea integrala sau chiar interzicerea dreptului de a posta, prin blocarea IP-ului folosit. Site-ul Capital.ro nu raspunde pentru opiniile postate in rubrica de comentarii, responsabilitatea formularii acestora revine integral autorului comentariului.

Nume: Prenume: Varsta: Email: Localitate: Judet: Telefon:


Sex: M / F




Ma abonez la newsletter
Sunt de acord cu termenii si conditiile concursului
* Toate campurile formularului sunt obligatorii