Eliezer Yudkowsky, fondatorul unui institut axat pe identificarea potențialelor riscuri legate de inteligența artificială, a trimis revistei americane Time o scrisoare în care cere oprirea pe termen nedeterminat a dezvoltării inteligenței artificiale.
Totul s-a întâmplat chiar în ziua în care Elon Musk și un grup de experți au cerut o pauză de șase luni în dezvoltarea acesteia, notează libertatea.ro.
Potrivit specialistului, cele șase luni alocate sistemelor de inteligență artificială (IA) generativă, precum ChatGPT, așa cum a propus Musk și grupul de experți, nu este suficient.
„Mulți cercetători implicați în aceste probleme, printre care mă număr și eu, se așteaptă ca rezultatul cel mai probabil al construirii unei inteligențe artificiale supraomenești, în circumstanțe cât de cât asemănătoare cu cele actuale, să fie că toată lumea de pe Pământ va muri”, a scris Eliezer Yudkowsky.
Specialistul este de părere că omenirea nu este pregătită să facă față unei asemenea provocări: „Ar necesita precizie și pregătire și noi perspective științifice, și, probabil, nu ar avea sisteme IA compuse din matrice uriașe de numere fracționale imperceptibile”.
„Fără această precizie și pregătire”, continuă el, „cel mai probabil rezultat este că IA nu face ceea ce vrem și nu-i va păsa de noi și nici de viața conștientă în general. Acest tip de grijă este ceva care, în principiu, ar putea fi introdus într-o IA, dar nu suntem pregătiți și nu știm în prezent cum”, a avertizat cercetătorul.
„În absența acestei griji, obținem „IA nu te iubește și nici nu te urăște, și ești făcut din atomi pe care îi poate folosi pentru altceva”, a spus Yudkowsky.
De asemenea, acesta a specificat că „o inteligență artificială suficient de dezvoltată nu va rămâne mult timp limitată la computere”.
„În lumea de astăzi, se pot trimite prin e-mail șiruri de ADN către laboratoare, care vor produce proteine la cerere, permițând astfel unei inteligențe artificiale inițial limitate la internet să construiască forme de viață artificiale sau să treacă direct la producția moleculară postbiologică”, a spus cercetătorul în domeniul inteligenței artificiale.
„Dacă cineva construiește o inteligență artificială prea puternică, în condițiile actuale, mă aștept ca fiecare membru al speciei umane și toată viața biologică de pe Pământ să moară la scurt timp după aceea”, a susținut acesta.
Eliezer Yudkowsky avertizează că un alt risc este acela de a crea „din neatenție minți digitale care sunt cu adevărat conștiente și ar trebui să aibă drepturi, și nu ar trebui să fie deținute”.
„Dacă nu poți fi sigur că creezi o inteligență artificială conștientă de sine, acest lucru este alarmant nu doar din cauza implicațiilor morale ale părții conștient de sine, ci și pentru că a fi nesigur înseamnă că nu ai nicio idee despre ceea ce faci, iar acest lucru este periculos și ar trebui să te oprești”, a mai spus cercetătorul.
Cât despre faptului că omenirea e departe de a fi pregătită pentru astfel de sisteme, acesta avansează un interval de câteva decenii pentru ca o astfel de pregătire să fie temeinică.
„Nu suntem pregătiți. Nu suntem pe cale să fim pregătiți în niciun interval de timp rezonabil. Nu există niciun plan. Progresul, în ceea ce privește capacitățile de inteligență artificială, este cu mult, mult mai avansat decât progresul în ceea ce privește alinierea inteligenței artificiale sau chiar progresul în ceea ce privește înțelegerea a ceea ce se întâmplă în interiorul acestor sisteme. Dacă vom face acest lucru cu adevărat, vom muri cu toții”, a transmis specialistul.