Uno dei progetti più interessanti di Meta sarà probabilmente abbandonato, in favore di operazioni meno etiche ma più remunerative.
Da qualche mese stiamo assistendo a una sorta di “corsa agli armamenti” delle aziende nei confronti dell’Intelligenza Artificiale. Tutte le più grandi compagnie tech si stanno attrezzando per non rimanere indietro in quello che sembra essere il grande business dei prossimi anni.
Ma se la maggior parte di loro sono solo intenzionate a cogliere le opportunità di questa grande innovazione, c’è anche qualcuno che si preoccupa dei possibili rischi che uno sviluppo dell’IA incontrollato può avere sulla scena mondiale. Così, mesi fa Meta aveva annunciato un progetto molto particolare: consapevole delle difficoltà e dei rischi che pongono, l’azienda di Facebook e Instagram ha creato un team interdisciplinare di Intelligenza Artificiale Responsabile (RAI) per favorire decisioni informate e specifiche su come misurare e definire l’equità dei prodotti alimentati da intelligenza artificiale.
La notizia era stata accolta con favore dalla comunità scientifica, soprattutto da chi era più spaventato dai pericoli che l’IA portava con sé. In questi ultimi giorni, però, è arrivata una notizia che ha smorzato l’entusiasmo intorno a questo progetto.
Un progetto nobile ma probabilmente poco remunerativo
Secondo quanto si apprende dalle principali testate che si occupano di tecnologia, Meta sta sciogliendo il team di Intelligenza Artificiale Responsabile e sta spostando gli addetti ai lavori verso il settore dell’intelligenza artificiale generativa (lo stesso di molte altre aziende, tra cui proprio OpenAI e il suo ChatGPT). Un portavoce di Meta ha detto a Reuters che la ristrutturazione ha lo scopo di “avvicinare il personale allo sviluppo di prodotti e tecnologie di base“. Insomma, sembra che l’azienda abbia dovuto abbandonare i suoi buoni propositi a favore di progetti ben più remunerativi.
Il team di Intelligenza Artificiale Responsabile era stato creato nel 2019 con l’obiettivo di monitorare i problemi nell’addestramento dell’intelligenza artificiale di Meta. L’azienda americana, in un post sul suo blog, aveva dichiarato: “Progettare un sistema di intelligenza artificiale per essere equo e inclusivo non è un compito adatto a tutti. Il processo implica lavorare sodo per capire come progettare un sistema che funzioni bene per tutte le persone, bilanciando attentamente eventuali tensioni che possono esistere tra gli interessi delle parti“.
Già da qualche tempo si parlava però dell’inefficienza di questo progetto: alcuni rapporti di Business Insider all’inizio di quest’anno avevano definito il team di Intelligenza Artificiale Responsabile come “poco autonomi e con una regolamentazione burocratica eccessiva”.
Con la regolamentazione dell’intelligenza artificiale ancora ai suoi inizi, la mossa di Meta è preoccupante considerando che l’azienda in passato è stata a preoccuparsi dell’importanza di sviluppare l’intelligenza artificiale in modo responsabile.