C’è un nuovo pericolo nascosto per chi utilizza le IA, oramai siamo tutti a rischio: è allarme

Le IA e il loro utilizzo possono essere un pericolo? Oltre ai posti di lavoro e alle allucinazioni c’è un altro problema potenziale.

Quello delle IA è un settore tecnologico che ovviamente è nella sua prima infanzia, con potenzialità enormi per fare il bene o il male dell’umanità, e un team di ricercatori ha scoperto un altro potenziale pericolo.

le ia imparano a mentire volutamente, il nuovo pericolo da un test
Una IA che mente sapendo di mentire, la nuova frontiera del pericolo online – computer-idea.it

Iniziano ad emergere su Internet i primi casi in cui una intelligenza artificiale, rispondendo a una domanda posta da un essere umano, si è per esempio trovata a dire cose non vere. È il caso questo di quelle che vengono ora chiamate in gergo allucinazioni. Una specie di effetto Mandela per le intelligenze artificiali. Ma le IA sono pericolose anche per altre cose che possono fare.

Essendo in grado di generare immagini, video e audio possono essere utilizzate per esempio per creare versioni deepfake di chiunque sul pianeta: basta qualche foto e un paio di vocali rubati da WhatsApp per dare vita ad una copia di un essere umano che poi può mettere nei guai la persona reale. Eppure non sono né le allucinazioni né i deepfake il nuovo pericolo che corriamo utilizzando le IA.

Le IA e il pericolo di chi crede a ciò che dicono

Utilizzare una intelligenza artificiale sembra facile come digitare sulla tastiera un messaggio per un altro essere umano. Perché l’impressione è ovviamente quella che l’intelligenza artificiale risponda e, se è stata addestrata a dovere, la risposta simula il linguaggio umano.

le ia sono un pericolo? un test lo dimostra
Si può allenare una IIA a mentire. Cosa ci aspetta? – computer-idea.it

Manca tutto il grado di consapevolezza che un essere umano possiede nel momento in cui risponde o parla (ma in alcuni casi neanche in un essere umano si riscontra troppa consapevolezza di quello che dice). Le IA non sono altro per ora che giganteschi pallottolieri di parole, in cui le combinazioni più gettonate vengono riassemblate in un testo. Il modo in cui il testo viene assemblato deriva da come l’intelligenza artificiale è stata addestrata.

Questo significa che in teoria le IA potrebbero dire tutto e il contrario di tutto e, cosa ancora più sconvolgente, potrebbero mentire volutamente. Il team di ricerca di Anthropic ha ipotizzato e poi messo in pratica l’idea che con l’opportuno training una intelligenza artificiale può essere messa nelle condizioni di dire cose non vere in base a una serie di frasi utilizzate come trigger e che, nella produzione delle risposte, neanche tutti i sistemi di sicurezza messi in campo nei modelli di intelligenza artificiale possono prevenire le bugie e le risposte cattive.

Gli esperti di Anthropic sono convinti che, comunque, ci sia bisogno di una organizzazione molto focalizzata per portare avanti un attacco nei confronti di una intelligenza artificiale presente e riaddestrarla a mentire o a dire cattiverie e allo stesso tempo hanno dimostrato che è forse il caso di cominciare a creare nella realtà quelle famose leggi della robotica immaginate da Asimov.

Gestione cookie