sabato, 31 Luglio 2021

Insegniamo all’A.I. a non fidarsi dei nostri bias

Da non perdere

L’Agenzia per l’Italia Digitale ha presentato il “Libro Bianco sull’Intelligenza Artificiale al servizio del cittadino”, frutto del lavoro di AgID, di un’ampia task force di esperti e della consultazione pubblica. Il libro ha l’obiettivo di analizzare l’impatto dell’A.I. in particolare nella Pubblica amministrazione, ed è molto interessante che, invece di essere concepito come una guida, presenti una serie di sfide per implementare azioni e practice davvero utili alla società.

Le sfide. Il Libro ne individua nove: etica; tecnologia; competenze; ruolo dei dati; contesto legale; accompagnare la trasformazione; prevenire le disuguaglianze; misurare l’impatto; l’Essere umano.

Mi collego allo streaming dell’evento romano di presentazione, un po’ perché l’Intelligenza Artificiale è tema del mio lavoro nella PA, un po’ perché con la mia Associazione Ecosistema Camerale abbiamo partecipato alla consultazione pubblica, un po’ per passione, infine per distogliermi un attimo dalle discussioni su Cambridge Analytica e ampliare la visuale.

Il primo intervento che seguo riguarda le disuguaglianze, la sfida 7 – il Libro dice “l’Intelligenza Artificiale può anche aumentare le disuguaglianze, se i dati di cui si nutre o gli algoritmi che la costituiscono sono affetti da bias di tipo discriminatorio”. Ed è un intervento illuminante. C’è una donna imprenditrice di livello internazionale, esperta (a dir poco e fra l’altro) di manutenzione predittiva e data science, che è ingegnere, parla la mia lingua e a un certo punto cita addirittura “Yourcenar”.

È Giulia Baccarin, managing director di I-Care e co-founder di MIPU ed esordisce: “Oggi più che mai l’ineguaglianza nell’accesso ai dati si traduce in maniera diretta nell’ineguaglianza della qualità di vita dei cittadini del mondo. La Pubblica Amministrazione deve pensare agli esclusi, quelli che non hanno pieno e libero accesso ai dati, almeno ai propri. Portando maggiore varietà di visione nelle comunità di programmazione, anche nelle comunità che programmano come la PA si interfaccerà con i cittadini, potremo creare uno Stato più giusto e una società più equa”. Mi torna alla mente un bell’articolo che Francesco Guglieri ha scritto sul libro di Ellen Ullman “Accanto alla macchina”: “il mondo dell’informatica è stato per lungo tempo appannaggio degli uomini e la cultura che ha espresso più volte si è rivelata profondamente maschilista. Ma se è settaria, orientata e chiusa la cultura che forgia le interfacce attraverso cui guardiamo il mondo, sarà chiuso e settario il mondo che vedremo”.

Ma la varietà di visione non è sufficiente, dice Baccarin e porta l’esempio di quando, dovendo selezionare startupper per l’acceleratore MIPU, decise di non utilizzare un algoritmo basato su predittori (storia del founder, uno storico della capacità di creare valore, remunerazione del capitale investito) che con ogni probabilità avrebbero restituito un output simile a Lapo Elkann, ma di affidarsi alla propria sensibilità, scoprendo Davide, un ragazzo affetto da una grave disabilità che lavora per rendere accessibili i dispositivi: “Se vogliamo legare l’intelligenza artificiale solo ai set di dati del passato non vedremo mai un Papa nero, un Presidente del Consiglio donna, non vedremo mai Davide guidare una grande azienda che possa creare tecnologie che migliorino il nostro Paese. Applicare l’A.I. al passato limita la nostra libertà di visione perché restringe il mondo che creeremo solo, al massimo, a quello che abbiamo già fatto”.

E qui Baccarin cita Marvin Minsky, matematico del MIT e fra i padri dell’Intelligenza Artificiale, autore di The Society of Mind e della celebre affermazione “Minds are simply what brains do”, per dire una cosa difficile in modo semplice: “siamo il prodotto di quella immensa folla umana che ha abitato dentro di noi e prima di noi e che oggi è potenziata dalle capacità dell’intelligenza collettiva, dalla connessione fra le diverse folle. Come facciamo, se siamo solo la somma delle nostre esperienze, ad abbracciare esperienze che nostre non sono?

Oggi siamo chiamati ad includere l’altro nella nostra esperienza, nella progettazione del futuro. Provate a scrivere il vostro nome sul cellulare solo con la punta del naso: le difficoltà che incontrerete, il tempo che impiegherete e gli errori che farete corrispondono, ad esempio, alla diversa esperienza che hanno un ventenne ed un sessantacinquenne nell’accesso al dato. Eliminare questa discrepanza, non solo è tecnologicamente possibile, ma è anche una questione di giustizia sociale. Dunque, abbracciamo il futuro. I padri costituenti sono stati più predittivi di noi quando nell’articolo 3 della nostra Costituzione hanno scritto che è compito della Repubblica eliminare gli ostacoli (ora anche tecnologici) che limitando la libertà, impediscono di fatto l’accesso ad una piena partecipazione collettiva ed inclusiva”.

Nel primo stasimo dell’Antigone di Sofocle il Coro canta “l’uomo, pensiero che spazia, lume della mente, mani artefici senza limiti: ecco l’uomo, ora va al male, ora al bene”. Quando approccio l’argomento Intelligenza Artificiale, inevitabilmente mi rifugio nella mia formazione classica e, forse, non a torto.

 

di Francesca Sanesi

[dt_quote font_size=”normal”]

“l’Intelligenza Artificiale può anche aumentare le disuguaglianze, se i dati di cui si nutre o gli algoritmi che la costituiscono sono affetti da bias di tipo discriminatorio”

[/dt_quote]

[dt_blog_masonry image_scale_animation_on_hover=”n” image_hover_bg_color=”n” bwb_columns=”desktop:1|h_tablet:1|v_tablet:1|phone:1″ dis_posts_total=”3″ content_alignment=”center” post_date=”n” post_category=”n” post_author=”n” post_comments=”n” post_content=”off” read_more_button=”off” category=”news”]

- Advertisement -spot_img

Talk For

F&NEWS