Imaginile de abuz sexual asupra copiilor generate de inteligența artificială, utilizând imagini reale pentru a le crea, se răspândesc tot mai mult
Imaginile de abuz sexual asupra copiilor generate de instrumentele de inteligență artificială devin din ce în ce mai răspândite pe internet și ajung la un „punct de cotitură”, potrivit unui organ de supraveghere citat de The Guardian.
Cei care supraveghează fenomenul nu mai pot face diferența între imaginile rele sau cele fabricate de AI
Internet Watch Foundation a declarat că cantitatea de conținut ilegal creat de AI pe care a văzut-o online în ultimele șase luni a depășit deja totalul pentru anul precedent.
Organizația, care conduce o linie telefonică telefonică din Marea Britanie, dar are și o misiune globală, a spus că aproape tot conținutul a fost găsit în zonele disponibile publicului de pe internet și nu pe dark web, care trebuie accesat de browsere specializate.
Directorul executiv interimar al IWF, Derek Ray-Hill, a declarat că nivelul de sofisticare al imaginilor indică faptul că instrumentele AI utilizate au fost instruite pe imagini și videoclipuri cu victime reale. „Ultimele luni arată că această problemă nu dispare și, de fapt, se înrăutățește”, a spus el.
Potrivit unui analist IWF, situația cu conținutul generat de inteligență artificială atinge un „punct de cotitură” în care organele de pază și autoritățile nu mai știu dacă o imagine implică un copil real care are nevoie de ajutor sau este creată de AI.
Imaginile generate de inteligența artificială sunt inspirate de imagini de abuz reale
IWF a luat măsuri împotriva a 74 de rapoarte de materiale de abuz sexual asupra copiilor (CSAM) generate de inteligență artificială – suficient de realiste pentru a încălca legea Regatului Unit – în șase luni până în septembrie a acestui an, comparativ cu 70 în cele 12 luni până în martie. Un singur raport se poate referi la o pagină web care conține mai multe imagini.
Pe lângă imaginile AI care prezintă victime reale ale abuzului, tipurile de materiale văzute de IWF au inclus videoclipuri „deepfake” în care pornografia pentru adulți a fost manipulată pentru a semăna cu CSAM.
În rapoartele anterioare, IWF a spus că AI a fost folosită pentru a crea imagini ale celebrităților care au fost folosite în scenarii de abuz sexual. Alte exemple de CSAM văzute au inclus materiale pentru care au fost folosite instrumente AI pentru a „nudifica” imagini cu copii îmbrăcați găsite online.
Mai mult de jumătate din conținutul generat de inteligență artificială semnalat de IWF în ultimele șase luni este găzduit pe servere din Rusia și SUA, Japonia și Olanda.