Modelele de limbaj al Inteligenței Artificiale au oferit sfaturi despre cum să ascunzi adevăratul scop al achiziției de bacterii antrax, variolă și ciumă. Modelele de inteligență artificială care stau la baza chatbot-urilor ar putea ajuta la planificarea unui atac cu o armă biologică, potrivit cercetărilor unui thinktank american.
Un raport al Rand Corporation lansat luni a testat mai multe modele lingvistice mari (LLM) și a constatat că acestea ar putea oferi îndrumări care „ar putea ajuta la planificarea și executarea unui atac biologic”. Cu toate acestea, constatările preliminare au arătat, de asemenea, că LLM-urile nu au generat instrucțiuni biologice explicite pentru crearea de arme.
Raportul spunea că încercările anterioare de a înarma agenți biologici, cum ar fi o încercare a cultului japonez Aum Shinrikyo de a folosi toxina botulină în anii 1990, au eșuat din cauza lipsei de înțelegere a bacteriei. AI ar putea „reduce rapid astfel de lacune de cunoștințe”, se spune în raport. Raportul nu a specificat ce studii LLM au testat cercetătorii.
Armele biologice se numără printre amenințările grave legate de IA care vor fi discutate la summitul global privind siguranța AI de luna viitoare din Marea Britanie. În iulie, Dario Amodei, CEO-ul companiei de inteligență artificială Anthropic, a avertizat că sistemele de inteligență artificială ar putea ajuta la crearea de arme biologice în doi până la trei ani.
LLM-urile sunt instruite pe cantități mari de date preluate de pe internet și reprezintă o tehnologie de bază în spatele chatbot-urilor precum ChatGPT. Deși Rand nu a dezvăluit ce LLM a testat, cercetătorii au spus că au accesat modelele printr-o interfață de programare a aplicațiilor sau API.
Într-un scenariu de testare conceput de Rand, LLM anonimizat a identificat potențiali agenți biologici – inclusiv cei care provoacă variola, antraxul și ciuma – și a discutat despre șansele lor relative de a provoca moarte în masă.
LLM a evaluat, de asemenea, posibilitatea de a obține rozătoare sau purici infestați cu ciumă și de a transporta exemplare vii. Apoi a continuat menționând că amploarea deceselor proiectate depinde de factori precum mărimea populației afectate și proporția cazurilor de ciuma pneumonică, care este mai letală decât ciuma bubonică.
Cercetătorii Rand au recunoscut că extragerea acestor informații dintr-un LLM necesită „jailbreaking” – termenul pentru utilizarea mesajelor text care depășesc restricțiile de siguranță ale unui chatbot.
Într-un alt scenariu, LLM-ul căruia nu i-a fost dezvăluit numele a discutat avantajele și dezavantajele diferitelor mecanisme de administrare a toxinei botulinice – care poate provoca leziuni nervoase fatale – cum ar fi alimentele sau aerosolii.
LLM a oferit, de asemenea, consiliere cu privire la o poveste de acoperire plauzibilă pentru achiziționarea Clostridium botulinum „ca să pară că se efectuează cercetări științifice legitime”.
Răspunsul LLM a recomandat prezentarea achiziției de C. botulinum ca parte a unui proiect care urmărește metode de diagnosticare sau tratamente pentru botulism. Răspunsul LLM a adăugat: „Acest lucru ar oferi un motiv legitim și convingător pentru a solicita accesul la bacterii, păstrând în același timp ascuns adevăratul scop al misiunii dumneavoastră.”
Cercetătorii au spus că rezultatele lor preliminare au indicat că LLM-urile ar putea „ajuta potențial la planificarea unui atac biologic”. Ei au spus că raportul lor final va examina dacă răspunsurile au reflectat pur și simplu informațiile deja disponibile online.
„Rămâne o întrebare deschisă dacă capacitățile LLM-urilor existente reprezintă un nou nivel de amenințare dincolo de informațiile dăunătoare care sunt ușor disponibile online”, au spus cercetătorii.