L’intelligenza artificiale ha urgente bisogno di una regolamentazione etica – VIDEO

Oltre alla promessa di innovazione e benessere, l’intelligenza artificiale porta con sé nuovi rischi per l’incolumità degli essere umani, a livello individuale e collettivo. Per questo è necessario affrontare un tema finora sottovalutato: la regolamentazione dell’intelligenza artificiale. 

ai
(Pexels)

C’è una forte disparità tra discipline e professioni quali la medicina, l’ingegneria, e l’intelligenza artificiale. Il nostro esperto di oggi, Gianluca Mauro, spiega come questo significhi che un giovane sviluppatore di algoritmi di AI che sforni algoritmi con forte bias etnico, per fare un esempio, non debba rispondere dei danni provocati dal proprio lavoro.

POTREBBE INTERESSARTI ANCHE >>> Intelligenza Artificiale, Israele e Giappone studiano come utilizzarla contro tsunami e malaria

L’intelligenza artificiale è uno specchio della società

Gianluca Mauro ci mette in guardia sul fatto che i problemi sollevati dagli algoritmi di intelligenza artificiale sono appena cominciati, e che la scala con cui ci potranno colpire non ha paragoni nella storia umana. Perché un essere umano può provocare un danno limitato, ma le macchine sono in grado di impattare migliaia e potenzialmente milioni di persone, nell’arco di pochi secondi.

Ma c’è un risvolto positivo: nel momento in cui un bias, l’errore sistematico di un sistema, diventa una regola di un algoritmo, esso è più facile da isolare e quindi la discriminazione e l’ineguaglianza sociale sono più facili da correggere ed eradicare.

Gianluca Mauro ha un background in Ingegneria Energetica, ed ha iniziato a lavorare nel mondo dell’innovazione e dell’AI in Silicon Valley, dove è andato come vincitore della borsa Fulbright BEST. Fondatore della AI Academy, nella sua carriera Gianluca Mauro ha insegnato AI a un pubblico molto vasto, da studenti del liceo fino a executives in aziende come P&G, Merck, Fater, Brunello Cucinelli, Daikin.

 

 

Gestione cookie