Arriva nuovo allarme contro l’AI: si stanno diffondendo dei bot pericolosissimi

L’allarme arriva dalla Banca d’Inghilterra, che ha individuato una serie di gravissime ingiustizie compiute dalle AI presenti nei propri sistemi informatici.

Il comunicato ufficiale della Bank of England è molto recente ma fa riferimento a fatti noti già da diversi anni. Il problema si basa sul funzionamento dell’Intelligenza Artificiale, anche se sarebbe più corretto dire che nasce dal suo “addestramento”.

intelligenza artificiale
L’intelligenza artificiale è sessista – computer-idea.it

L’intelligenza artificiale è infatti un algoritmo in grado di imparare in maniera autonoma analizzando i dati che le vengono forniti. Questo significa che incamerando grandi quantità di informazioni un’Intelligenza Artificiale è in grado di produrre testi, produrre immagini, rispondere agli utenti in una chat in maniera molto simile a quello  che farebbe un umano eccetera.

Il problema è che le Intelligenze Artificiali non posseggono senso critico e, quindi, accettano come vere e assolute tutte le informazioni che ricevono. Se, per esempio, si decidesse di mostrare a un’Intelligenza Artificiale soltanto fotografie di mele rosse e testi in cui vengono descritte soltanto mele rosse, l’AI produrrà immagini e testi in cui le mele saranno solo di quel colore. Se si provasse a chiedere se esistono anche mele verdi risponderà di no perché, semplicemente, il sistema non ha mai ricevuto informazioni in merito a mele che non fossero rosse. Proprio questo funzionamento dell’AI ha portato a risultati gravissimi in Inghilterra.

L’AI della Banca d’Inghilterra è sessista e razzista

L’allarme è stato lanciato dai clienti della Banca d’Inghilterra che avevano provato a utilizzare il sito della banca e avevano interagito con i suoi sistemi di intelligenza artificiale, allo scopo di chiedere servizi bancari come per esempio l’apertura di un conto e l’ottenimento di un prestito. I risultati hanno fatto venire i brividi: l’intelligenza artificiale proponeva un limite di credito più basso se a chiedere l’attivazione di una carta di credito erano donne.

sessismo ai
Le AI addestrate al sessismo – computer-idea.it

Nel suo rapporto però la Banca d’Inghilterra faceva riferimento anche ad altri episodi celebri avvenuti negli scorsi anni, per esempio quando Amazon affidò all’AI la selezione dei curriculum per le nuove assunzioni. In questo caso la AI escludeva i curriculum delle donne ritenendoli poco idonei all’assunzione.

La Banca d’Inghilterra ha quindi messo in guardia sulle ripercussioni molto negative che l’utilizzo di AI sessiste potrebbe avere sull’immagine di aziende importanti ma soprattutto sui danni sociali che questo potrebbe comportare perché si attuerebbe una forte discriminazione ai danni di soggetti più svantaggiati, come appunto donne o cittadini stranieri.

Ma perché abbiamo addestrato AI sessiste o razziste? Semplice: perché è la nostra società ad esserlo. Se l’AI della Banca d’Inghilterra non assicura alle donne un credito pari a quello degli uomini è soltanto perché i dati dicono che le donne hanno salari più bassi, vengono licenziate prima e trascorrono lunghi periodi di disoccupazione a causa della maternità, quindi sono meno stabili e affidabili degli uomini dal punto di vista economico. Siamo noi ad aver addestrato le AI in questo modo, perché incolpare l’intelligenza artificiale?

Gestione cookie