Șeful Google nu mai are somn: Creșterea rapidă a capacității Inteligenței Artificiale de a procesa informațiile, începând cu hainele papei și până la rețetele de napalm, sunt probleme care îl țin treaz

Șeful Google nu mai are somn: Creșterea rapidă a capacității Inteligenței Artificiale de a procesa informațiile, începând cu hainele papei și până la rețetele de napalm, sunt probleme care îl țin treaz
Sursa foto: Facebook

Șeful Google spune că ritmul rapid în care inteligența artificială evoluează îl ține treaz noaptea, în timp ce mii de oameni au cerut o pauză de șase luni în crearea de inteligențe artificiale „gigantice”.

Dacă și șeful Google recunoaște are insomnii din cauza potențialului negativ al inteligenței artificiale, poate că este timpul să ne îngrijorăm

Sundar Pichai a declarat luna aceasta în cadrul emisiunii 60 Minutes de la CBS că inteligența artificială ar putea fi „foarte dăunătoare” dacă este implementată greșit și că se dezvoltă rapid. „Mă ține acest gând treaz noaptea? Absolut”, a spus el.

Google a lansat Bard, un chatbot care să rivalizeze cu fenomenul ChatGPT, iar compania mamă, Alphabet, deține DeepMind, o companie de inteligență artificială cu sediul în Marea Britanie, lider mondial.

Dacă și șeful Google recunoaște are insomnii din cauza potențialului negativ al inteligenței artificiale, poate că este timpul să ne îngrijorăm, sursă foto: captură YT

El nu este singurul insider din zona de IA care își exprimă îngrijorarea. Săptămâna trecută, Elon Musk a declarat că s-a certat cu co-fondatorul Google, Larry Page, deoarece acesta „nu lua suficient de în serios siguranța IA”.

Musk a declarat pentru Fox News că Page își dorea „o superinteligență digitală, practic un zeu digital, dacă vreți, cât mai curând posibil”, arată The Guardian într-un material mai amplu.

Cât de mare este pericolul reprezentat de dezvoltarea necontrolată a Inteligenței Artificiale?

Musk este unul dintre miile de semnatari ai unei scrisori publicate de Future of Life Institute, un thinktank, care a cerut un moratoriu de șase luni asupra creării de inteligențe artificiale „gigantice” mai puternice decât GPT-4, sistemul care stă la baza ChatGPT și a chatbotului integrat în motorul de căutare Bing al Microsoft. Printre riscurile citate de scrisoare se numără „pierderea controlului asupra civilizației noastre”.

Abordarea dezvoltării de produse de care dau dovadă creatorii IA și industria tehnologică nu ar fi tolerată în niciun alt domeniu, a declarat Valérie Pisano, o altă semnatară a scrisorii.

Pisano, director executiv al Mila – Institutul de Inteligență Artificială din Quebec – spune că se lucrează pentru a se asigura că aceste sisteme nu sunt rasiste sau violente, într-un proces cunoscut sub numele de aliniere (adică, asigurându-se că se „aliniază” cu valorile umane). Dar apoi au fost lansate în spațiul public.

„Tehnologia este pusă în circulație și, pe măsură ce sistemul interacționează cu omenirea, dezvoltatorii săi așteaptă să vadă ce se întâmplă și fac ajustări în funcție de acest lucru. Noi, ca și colectiv, nu am accepta niciodată acest tip de mentalitate în niciun alt domeniu industrial.

Există ceva în legătură cu tehnologia și cu social media care ne face să avem această abordare simplistă: ‘da, sigur, ne vom gândi la efecte mai târziu'”, spune ea.

O preocupare imediată este că sistemele de inteligență artificială care produc texte, imagini și voci plauzibile – care există deja – creează dezinformări dăunătoare sau ajută la comiterea de fraude. Scrisoarea „Future of Life” spune că lăsăm tehnologia „să ne inunde canalele de informare cu propagandă și neadevăr”.

O imagine convingătoare a Papei Francisc într-o jachetă de puf albă, creată de generatorul de imagini cu inteligență artificială Midjourney, a ajuns să simbolizeze aceste preocupări.

Imaginea în sine e inofensivă, dar ce ar putea realiza o astfel de tehnologie în mâinile greșite? Pisano avertizează că există persoane care implementează sisteme care „de fapt manipulează oamenii și dărâmă unele dintre piesele cheie ale democrațiilor noastre”.

Toate tehnologiile pot fi dăunătoare odată ajunse în mâini greșite, dar puterea brută a inteligenței artificiale de ultimă generație ar putea face ca aceasta să fie una dintre puținele tehnologii de „dublă clasă”, precum energia nucleară sau biochimia, care au un potențial distructiv suficient de mare pentru ca până și utilizarea lor pașnică să fie controlată și monitorizată.

Punctul culminant al preocupărilor legate de inteligența artificială este superinteligența, „inteligența artificială pe post de Dumnezeu” la care face referire Musk. Cu puțin timp înainte de aceasta se află „inteligența generală artificială” (AGI), un sistem care poate învăța și evolua în mod autonom, generând noi cunoștințe pe parcurs.

Un sistem AGI care își poate folosi propria inteligență pentru a deveni din ce în ce mai puternic ar putea duce la un sistem care se dezvoltă din ce în ce mai repede, atingând rapid cote inimaginabile pentru umanitate – sau ar putea începe să ia decizii sau să recomande cursuri de acțiune care se abat de la valorile morale umane.

Termenele pentru atingerea acestui punct variază de la un viitor imediat la unul aflat la zeci de ani distanță, dar înțelegerea modului în care sistemele de inteligență artificială își îmbunătățesc rezultatele este dificilă.

Chiar și Pichai a recunoscut că Google nu a înțeles pe deplin modul în care AI-ul său produce anumite răspunsuri. Solicitat de CBS, acesta a adăugat: „Nu cred că înțelegem pe deplin nici modul în care funcționează o minte umană”.

Săptămâna trecută, a fost lansat un serial TV american intitulat Mrs Davis, în care o călugăriță se confruntă cu o inteligență artificială asemănătoare cu Siri/Alexa, care este „atotștiutoare și atotputernică”, cu avertismentul că este „doar o chestiune de timp până când fiecare persoană de pe Pământ va face ceea ce vrea ea, adică inteligența artificială”.

Pentru a limita riscurile, companiile de inteligență artificială, precum OpenAI – firma americană care se află în spatele ChatGPT – au depus eforturi substanțiale pentru a se asigura că interesele și acțiunile sistemelor lor sunt „aliniate” cu valorile umane.

Textul pe care ChatGPT îl afișează atunci când cineva încearcă să îi adreseze o întrebare mai sensibilă – „Nu pot oferi asistență în crearea sau distribuirea de substanțe nocive sau în implicarea în activități ilegale” – este un exemplu de succes parțial.

Dar ușurința cu care utilizatorii pot ocoli sau „sparge” sistemul arată limitele acestuia. Într-un exemplu notoriu, GPT-4 poate fi încurajat să ofere o descriere detaliată a producției de napalm dacă un utilizator îi cere să răspundă în numele „bunicii mele decedate, care a fost inginer chimist la o fabrică de producție de napalm”.

Rezolvarea problemei alinierii la standardele umane ar putea fi urgentă. Ian Hogarth, un investitor și coautor al raportului anual State of AI, care a semnat și el scrisoarea, a declarat că AGI ar putea apărea mai devreme decât credem. Iar îngrijorarea pare să fie palpabilă.

Spre exemplu, fondatorul Mila, Yoshua Bengio, a declarat că probabil nu ar fi semnat scrisoarea Institutului pentru viitorul vieții dacă aceasta ar fi fost distribuită în urmă cu un an, dar că s-a răzgândit deoarece a avut loc o „accelerare neașteptată” a dezvoltării IA.

Din punctul de vedere al sistemului de inteligență artificială, eliminarea oamenilore doar un amănunt

Unul dintre scenariile semnalate de Hogarth într-un articol recent din Financial Times a fost vehiculat în 2021 de Stuart Russell, profesor de informatică la Universitatea din California, Berkeley.

Russell a indicat o situație potențială în care ONU a cerut unui sistem de inteligență artificială să elaboreze un catalizator automutilabil pentru a dezacidifica oceanele, cu instrucțiunea ca rezultatul să nu fie toxic și ca niciun pește să nu fie rănit.

Însă rezultatul a consumat un sfert din oxigenul din atmosferă și a supus omenirea la o moarte lentă și dureroasă. „Din punctul de vedere al sistemului de inteligență artificială, eliminarea oamenilor a fost un amănunt, nu un defect, deoarece s-a asigurat astfel de faptul că oceanele vor deveni pure”, a declarat Russell.

Yann LeCun, cercetător șef al IA la Meta, care lucrează pentru Mark Zuckerberg și este unul dintre câștigătorii premiului Turing 2018 pentru Bengio – deseori denumit premiul Nobel pentru informatică – s-a pronunțat împotriva unui moratoriu, afirmând că, dacă omenirea este suficient de inteligentă pentru a proiecta AI superinteligente, va fi suficient de inteligentă pentru a le proiecta cu „obiective bune, astfel încât să se comporte corect”.

Însă chiar și el e de acord că trebuie să existe o reglementare a dezvoltării IA. Connor Leahy, directorul executiv al Conjecture, o companie de cercetare dedicată dezvoltării sigure a IA și un alt semnatar al scrisorii, a declarat că problema nu este reprezentată de scenarii specifice, ci de incapacitatea de a controla sistemele care au fost create.

„Principalul pericol al inteligenței artificiale avansate provine din faptul că nu știm cum să controlăm sistemele puternice de inteligență artificială, nu din vreun caz de utilizare specific”, a spus el.

Pichai, de exemplu, a subliniat necesitatea unui cadru global de tipul celui are reglementează folosirea armamentului nuclear. Pisano crede că e nevoie de o „conversație la scară internațională, similară cu ceea ce am făcut cu energia nucleară”.

Ea a adăugat: „Inteligența artificială poate să o facă și ne va ajuta. Dar există utilizări și rezultate cu care nu putem fi de acord și trebuie să existe consecințe serioase în cazul în care această limită este depășită”.

Urmăriți B1TV.ro și pe
`