Tehnologiile de Inteligență Artificială (AI) care avansează rapid ar putea atinge capacitatea de a depăși oamenii în doar cinci ani, conform declarațiilor lui Geoffrey Hinton, expert la Google în vârstă de 75 de ani, într-un interviu acordat duminică la emisiunea „60 Minutes” de la CBS. În cazul în care acest lucru se întâmplă, AI ar putea evolua dincolo de capacitatea noastră de a o controla, a adăugat el.
„Una dintre modalitățile prin care aceste sisteme ar putea scăpa de sub control este prin capacitatea lor de a-și scrie propriul cod de computer pentru a se modifica”, a explicat Hinton. „Aceasta este o problemă serioasă cu care trebuie să ne confruntăm.”
Oamenii, inclusiv oamenii de știință precum Hinton, care au contribuit la dezvoltarea sistemelor AI actuale, încă nu înțeleg pe deplin modul în care funcționează și evoluează această tehnologie, a subliniat el. Mulți cercetători în domeniul Inteligenței Artificiale recunosc această lacună de înțelegere: în luna aprilie, CEO-ul Google, Sundar Pichai, a menționat aceasta ca fiind problema „cutiei negre” a AI.
Conform descrierii lui Hinton, specialiștii în domeniul științei proiectează algoritmi pentru sistemele de inteligență artificială, cu scopul de a extrage informații din seturi de date, precum cele disponibile pe internet. „Atunci când acest algoritm de învățare interacționează cu datele, rezultă rețele neuronale complexe, capabile să realizeze sarcini complexe”, a afirmat acesta. „Cu toate acestea, nu înțelegem pe deplin modul în care acestea își îndeplinesc sarcinile”.
În timp ce Hinton se arată îngrijorat de pierderea controlului asupra inteligenței artificiale, Pichai și alți experți în domeniu nu par să împărtășească aceeași preocupare. Yann LeCun, un alt câștigător al premiului Turing și considerat unul dintre „părinții” inteligenței artificiale, a catalogat orice avertisment referitor la posibilitatea ca AI să înlocuiască umanitatea drept „absurd și ridicol„, deoarece oamenii pot interveni întotdeauna pentru a opri orice tehnologie care devine prea periculoasă.
Informațiile furnizate pe startmedia au un scop informativ general și sunt furnizate fără nicio declarație sau garanție de niciun fel, expresă sau implicită, cu privire la caracterul complet, acuratețea, fiabilitatea, caracterul adecvat sau disponibilitatea informațiilor, produselor, serviciilor sau conexe.
Conținutul prezentat în secțiunea `Excepția StartMedia` este o opinie și reflectă doar părerea autorului relativ la subiect.
Grafica conținută pe site este destinată utilizării în scopuri informative și nu trebuie interpretată ca fiind o garanție a caracteristicilor produselor sau serviciilor prezentate. Orice încredere acordată acestor informații se face pe propriul risc al utilizatorului. În niciun caz, startmedia nu va fi răspunzătoare pentru nicio pierdere sau daune, inclusiv, fără limitare, pierderi sau daune indirecte sau consecutive sau orice pierdere sau daune care decurg din pierderea de date sau profituri rezultate din sau în legătură cu utilizarea acestui site web.
Copyright @StartMedia 2025