“Si moltiplicano e infettano tutto”: l’allerta dei ricercatori alimenta i timori sulle IA

Un team di ricercatori ha lanciato un’allerta, creando dei virus per dimostrare i rischi delle applicazioni abilitate all’IA.

A dimostrazione dei rischi degli ecosistemi IA connessi e autonomi, un gruppo di ricercatori ha creato uno di quelli che sostengono siano i primi worm IA generativi, che possono diffondersi da un sistema all’altro, potenzialmente rubando dati o distribuendo malware nel processo.

Worm AI, la nuova frontiera delle minacce informatiche
I ricercatori creano worm IA che possono diffondersi da un sistema all’altro (computer-idea-it)

Nel loro rapporto, i ricercatori Stav Cohen dell’Israel Institute of Technology, Ben Nassi della Cornell Tech e Ron Bitton dell’Intuit, hanno inventato il nome “Morris II” ispirandosi al worm originale che ha devastato Internet in 1988. Di seguito, scopriamo quanto hanno rivelato gli scienziati.

Il worm Morris II AI può rubare i dati riservati e infettare ChatGPT e Gemini

Il documento di ricerca suggerisce che il worm generativo può diffondersi tra i sistemi di IA. Morris II può influenzare gli assistenti di posta elettronica generativi con intelligenza artificiale, estrarre dati da assistenti di posta elettronica abilitati all’intelligenza artificiale e persino eliminare le misure di sicurezza dei popolari chatbot come ChatGPT e Gemini. Utilizzando istruzioni autoreplicanti, il worm AI può facilmente navigare attraverso i sistemi AI senza essere rilevato.

Il worm Morris II AI può rubare i dati riservati e infettare ChatGPT e Gemini
Come il virus artificiale IA Morris II ha rubato dati tramite posta e suggerimenti (computer-idea.it)

​Il virus è stato sviluppato con tre obiettivi chiave in mente. Il primo è garantire che possa ricrearsi. Utilizzando prompt autoreplicanti che attivano le applicazioni AI per inviare il prompt originale stesso, l’IA replicherà automaticamente il worm ogni volta che utilizza il prompt. Il secondo obiettivo era fornire un payload o eseguire un’attività dannosa.

In questo caso era programmato per eseguire una serie di azioni: dal furto di informazioni sensibili alla creazione di e-mail offensive e volgari allo scopo di seminare tossicità e distribuire propaganda. Infine, doveva essere in grado di passare da un host all’altro e da un’applicazione all’altra per potersi diffondere nell’ecosistema dell’intelligenza artificiale.

Nei test effettuati dai ricercatori, il virus è riuscito a rubare numeri di previdenza sociale e dettagli di carte di credito. Virus come questi evidenziano la necessità di maggiore ricerca, test e regolamentazione quando si tratta di implementare applicazioni di intelligenza artificiale generativa.

I ricercatori hanno rapidamente avvisato dei loro risultati sia OpenAI che Google. Google si è rifiutata di fornire una risposta, ma un portavoce per conto di OpenAI ha affermato che stanno lavorando per rendere i loro sistemi più sicuri e che gli sviluppatori dovrebbero utilizzare metodi per verificare che non stiano lavorando con input dannosi.

Impostazioni privacy