Marco Pancini, șeful pentru afaceri UE al Meta, a declarat că „Centrul de operațiuni electorale specific UE” va reuni experți din întreaga companie pentru a se concentra pe abordarea dezinformării, pe influențarea operațiunilor și a riscurilor legate de abuzul utilizării inteligenței artificiale.
„Înainte de perioada alegerilor, vom face să fie mai ușor pentru toți partenerii noștri să găsească și să evalueze conținutul legat de alegeri, deoarece recunoaștem că viteza este deosebit de importantă în timpul evenimentelor de ultimă oră”, a spus Pancini.
„Vom folosi detectarea cuvintelor cheie pentru a grupa conținutul similar într-un singur loc, făcându-le ușor de găsit de către verificatorii de știri adevărate sau false.”
Pancini a spus că eforturile Meta de a aborda riscurile prezentate de AI ar include adăugarea unei funcții pe care oamenii să o dezvăluie atunci când partajează videoclipuri sau audio generate de AI și posibile sancțiuni pentru neconformitate.
„Deja etichetăm imagini fotorealiste create folosind Meta AI și construim instrumente pentru a eticheta imaginile generate de AI de la Google, OpenAI, Microsoft, Adobe, Midjourney și Shutterstock pe care utilizatorii le postează pe Facebook, Instagram și Threads”, a spus el.
Lansarea platformelor AI, cum ar fi GPT-4 de la OpenAI și Gemini de la Google, a stârnit îngrijorări cu privire la posibilitatea ca informații, imagini și videoclipuri false să influențeze alegătorii în alegeri.
Alegerile pentru Parlamentul UE, care au loc între 6 și 9 iunie, este un eveniment extrem de important într-un an care a fost numit cel mai mare an electoral din istorie.
Alegătorii din peste 80 de țări, inclusiv Statele Unite ale Americii, India, Mexic și Africa de Sud, urmează să meargă la urne la alegeri reprezentând aproximativ jumătate din populația lumii.
Meta la începutul acestei luni s-a alăturat altor 19 companii de tehnologie, inclusiv Google, Microsoft, X, Amazon și TikTok și a semnat un angajament de a restrânge conținutul AI conceput pentru a induce în eroare alegătorii.