Avertismentul unui specialist important din domeniul inteligenței artificiale despre ChatGPT: „Nu suntem pregătiți. Dacă cineva construiește o IA prea puternică, toată lumea de pe Pământ va muri”

Avertismentul unui specialist important din domeniul inteligenței artificiale despre ChatGPT: „Nu suntem pregătiți. Dacă cineva construiește o IA prea puternică, toată lumea de pe Pământ va muri”
Sursa Foto: Freepik

Eliezer Yudkowsky, fondatorul unui institut axat pe identificarea potențialelor riscuri legate de inteligența artificială, a trimis revistei americane Time o scrisoare în care cere oprirea pe termen nedeterminat a dezvoltării inteligenței artificiale.

Totul s-a întâmplat chiar în ziua în care Elon Musk și un grup de experți au cerut o pauză de șase luni în dezvoltarea acesteia, notează libertatea.ro.

Avertismentul unui reputat cercetător despre ChatGPT

Potrivit specialistului, cele șase luni alocate sistemelor de inteligență artificială (IA) generativă, precum ChatGPT, așa cum a propus Musk și grupul de experți, nu este suficient.

„Mulți cercetători implicați în aceste probleme, printre care mă număr și eu, se așteaptă ca rezultatul cel mai probabil al construirii unei inteligențe artificiale supraomenești, în circumstanțe cât de cât asemănătoare cu cele actuale, să fie că toată lumea de pe Pământ va muri”, a scris Eliezer Yudkowsky.

Specialistul este de părere că omenirea nu este pregătită să facă față unei asemenea provocări: „Ar necesita precizie și pregătire și noi perspective științifice, și, probabil, nu ar avea sisteme IA compuse din matrice uriașe de numere fracționale imperceptibile”.

„Fără această precizie și pregătire”, continuă el, „cel mai probabil rezultat este că IA nu face ceea ce vrem și nu-i va păsa de noi și nici de viața conștientă în general. Acest tip de grijă este ceva care, în principiu, ar putea fi introdus într-o IA, dar nu suntem pregătiți și nu știm în prezent cum”, a avertizat cercetătorul.

„În absența acestei griji, obținem „IA nu te iubește și nici nu te urăște, și ești făcut din atomi pe care îi poate folosi pentru altceva”, a spus Yudkowsky.

De asemenea, acesta a specificat că „o inteligență artificială suficient de dezvoltată nu va rămâne mult timp limitată la computere”.

„În lumea de astăzi, se pot trimite prin e-mail șiruri de ADN către laboratoare, care vor produce proteine la cerere, permițând astfel unei inteligențe artificiale inițial limitate la internet să construiască forme de viață artificiale sau să treacă direct la producția moleculară postbiologică”, a spus cercetătorul în domeniul inteligenței artificiale.

Riscul distrugerii omenirii este cât se poate de real

„Dacă cineva construiește o inteligență artificială prea puternică, în condițiile actuale, mă aștept ca fiecare membru al speciei umane și toată viața biologică de pe Pământ să moară la scurt timp după aceea”, a susținut acesta.

Eliezer Yudkowsky avertizează că un alt risc este acela de a crea „din neatenție minți digitale care sunt cu adevărat conștiente și ar trebui să aibă drepturi, și nu ar trebui să fie deținute”.

„Dacă nu poți fi sigur că creezi o inteligență artificială conștientă de sine, acest lucru este alarmant nu doar din cauza implicațiilor morale ale părții conștient de sine, ci și pentru că a fi nesigur înseamnă că nu ai nicio idee despre ceea ce faci, iar acest lucru este periculos și ar trebui să te oprești”, a mai spus cercetătorul.

Cât despre faptului că omenirea e departe de a fi pregătită pentru astfel de sisteme, acesta avansează un interval de câteva decenii pentru ca o astfel de pregătire să fie temeinică.

„Nu suntem pregătiți. Nu suntem pe cale să fim pregătiți în niciun interval de timp rezonabil. Nu există niciun plan. Progresul, în ceea ce privește capacitățile de inteligență artificială, este cu mult, mult mai avansat decât progresul în ceea ce privește alinierea inteligenței artificiale sau chiar progresul în ceea ce privește înțelegerea a ceea ce se întâmplă în interiorul acestor sisteme. Dacă vom face acest lucru cu adevărat, vom muri cu toții”, a transmis specialistul.

Urmăriți B1TV.ro și pe
`
Ultima oră
23:56 - Un accident grav de circulație a avut loc joi seară în Cluj. Cinci tineri, printre care o adolescentă de 15 ani, au fost transportați la spital
23:53 - Ursula von der Leyen a anunțat un ajutor de 10 miliarde de euro pentru ţările afectate de inundaţii
23:37 - Rareș Bogdan, despre amendamentul care-l ajută pe Iohannis să candideze la parlamentare: Nu lăsăm pe nimeni în urmă. Ne respectăm președinții de partid și de țară. Privim spre viitor
23:27 - Țara din Europa care va limita folosirea limbii ruse. Nu va mai putea fi folosită la locurile de muncă sau pe bancomate
23:14 - Cum a scăpat Mario Iorgulescu de pedeapsa de 13 ani și 8 luni de închisoare. Motivare: Nu a intenționat să omoare pe cineva / Opinia separată a unui judecător: Tânărul era beat, drogat, conducea cu viteză excesivă, a trecut pe roșu
23:00 - Cât costă o vacanță de șapte zile, la un hotel all inclusive în prima vacanță a elevilor. Unele destinații deja nu mai au locuri
22:39 - Bogdan Paraschiv (Partida Romilor): Am auzit încă de acum 6 – 7 luni că e posibil ca Iohannis să candideze la parlamentare (VIDEO)
22:33 - Momente de groază la bordul unui avion. În timpul zborului, pasagerii au început să „sângereze din gură și din urechi”
22:07 - Diana Buzoianu (USR) acuză PNL de ipocrizie în relația cu Nicușor Dan: L-au atacat atâtea luni și acum îl caută. Teatru ieftin pentru voturi (VIDEO)
22:02 - Țuțuianu: Iohannis a tot căutat un loc de muncă bun și cald, după ieșirea din mandat. Probabil candidatura lui la Senat e susținută de Ciucă pentru un fel de întoarcere a unor servicii pe care i le-a făcut președintele în ultimii ani (VIDEO)