Con le strategie nazionali di innovazione focalizzate principalmente sul raggiungimento del dominio dell’intelligenza artificiale, il problema di regolare, effettivamente, le applicazioni di intelligenza artificiale ha ricevuto meno attenzione. Fortunatamente, le città e le altre giurisdizioni locali stanno raccogliendo il testimone e conducendo esperimenti politici che daranno lezioni per tutti.
NEW YORK – Ogni nuova tecnologia cavalca un’onda dalla promozione allo sgomento. Ma anche secondo i soliti standard, l’intelligenza artificiale ha avuto una turbolenta corsa. L’intelligenza artificiale è un eroe che rinnova la società o un cattivo che distrugge posti di lavoro? Come sempre, la verità non è così categorica.
Come tecnologia di uso generale, l’intelligenza artificiale sarà ciò che ne decideremo di fare, con il suo impatto finale determinato dai quadri di governance che costruiamo. Man mano che le richieste di nuove politiche sull’IA diventano sempre più forti, c’è un’opportunità per modellare l’infrastruttura legale e normativa in modo da massimizzare i benefici dell’IA e limitarne i potenziali danni.
Fino a poco tempo fa, la governance dell’IA è stata discussa principalmente a livello nazionale. Ma la maggior parte delle strategie di IA nazionali, in particolare della Cina, sono focalizzate sull’ottenimento o sul mantenimento di un vantaggio competitivo a livello globale. Sono essenzialmente piani aziendali progettati per attrarre investimenti e aumentare la competitività delle imprese, di solito con un’enfasi aggiuntiva sul rafforzamento della sicurezza nazionale.
Questa particolare attenzione alla concorrenza ha fatto sì che le regole e i regolamenti relativi all’intelligenza artificiale siano stati ignorati. Ma le città si stanno facendo sempre più strada nel vuoto normativo, con New York, Toronto, Dubai, Yokohama e altri che fungono da “laboratori” per l’innovazione della governance. Le città stanno sperimentando una serie di politiche, dai divieti alla tecnologia di riconoscimento facciale ad alcune altre applicazioni di intelligenza artificiale fino alla creazione di dati condivisi. Stanno anche facendo importanti investimenti nella ricerca responsabile sull’IA, ecosistemi tecnologici localizzati ad alto potenziale e iniziative guidate dai cittadini.
Questo “localismo dell’intelligenza artificiale” è in linea con la tendenza più ampia del “Nuovo localismo”, come descritto dagli studiosi di politica pubblica Bruce Katz e dal compianto Jeremy Nowak. Le giurisdizioni municipali e locali si stanno sempre più assumendo la responsabilità di affrontare una vasta gamma di sfide ambientali, economiche e sociali e il settore della tecnologia non fa eccezione.
Ad esempio, New York, Seattle e altre città hanno abbracciato ciò che Ira Rubinstein dell’Università di New York chiama “localismo della privacy”, colmando lacune significative nella legislazione federale e statale, in particolare quando si tratta di sorveglianza. Allo stesso modo, in assenza di una strategia nazionale o globale sulla banda larga, molte città hanno perseguito il “localismo della banda larga”, adottando misure per colmare il divario di servizio lasciato dagli operatori del settore privato.
Come approccio generale alla risoluzione dei problemi, il localismo offre sia immediatezza che prossimità. Poiché è gestito in regioni geografiche ben definite, offre ai politici una migliore comprensione dei fattori coinvolti. Calibrando algoritmi e politiche di intelligenza artificiale per le condizioni locali, i responsabili politici hanno maggiori possibilità di creare cicli di feedback positivi che si tradurranno in una maggiore efficacia e responsabilità.
I circuiti di feedback possono avere un impatto enorme, in particolare per quanto riguarda l’IA. In alcuni casi, le politiche di IA locali potrebbero avere effetti di vasta portata sul modo in cui la tecnologia viene progettata e implementata altrove. Ad esempio, istituendo “Algorithms Management and Policy Officer”, New York City ha creato un modello che può essere emulato in tutto il mondo.
Il localismo dell’intelligenza artificiale si presta anche a un maggiore coordinamento politico e ad un maggiore coinvolgimento dei cittadini. A Toronto, una coalizione di accademici, civili e altre parti interessate si è riunita per garantire la responsabilità di “Sidewalk Labs”, un’iniziativa lanciata da Alphabet (la società madre di Google) per migliorare servizi e infrastrutture attraverso dei sensori, a livello cittadino. In risposta a questa azione civica, la società ha accettato di seguire sei linee guida per “l’intelligenza artificiale responsabile”.
Come mostra questo esempio, è più probabile che gli sforzi di riforma abbiano successo quando i gruppi locali, riunendo le loro competenze e influenza, assumono la guida. Allo stesso modo, a Brooklyn, New York, l’associazione degli inquilini delle “Atlantic Plaza Towers” (in collaborazione con ricercatori accademici e organizzazioni non governative) è riuscita a bloccare un piano per utilizzare la tecnologia di riconoscimento facciale al posto delle chiavi. Inoltre, questo sforzo ha offerto spunti importanti su come l’IA dovrebbe essere regolata in modo più ampio, in particolare nel contesto dell’edilizia abitativa.
Ma il localismo dell’IA non è una panacea. Le stesse reti locali ristrette che offrono vantaggi di governance possono anche tradursi in una forma di acquisizione normativa. Pertanto, il localismo dell’intelligenza artificiale deve essere soggetto a una rigorosa supervisione e politiche per prevenire la corruzione e i conflitti di interesse.
Il localismo dell’IA comporta anche un rischio di frammentazione. Mentre gli approcci nazionali hanno i loro difetti, l’innovazione tecnologica (e il bene pubblico) possono soffrire se il localismo dell’IA risulta tradursi in politiche non coordinate e incompatibili. I regolatori locali e nazionali devono tener conto di questa possibilità, adottando un approccio decentralizzato che si basa meno sulla gestione dall’alto verso il basso e più sul coordinamento. Ciò, a sua volta, richiede un’infrastruttura tecnica e normativa per la raccolta e la diffusione delle migliori pratiche e delle lezioni apprese nelle giurisdizioni.
I regolatori stanno appena iniziando a riconoscere la necessità e il potenziale del localismo dell’IA. Ma accademici, cittadini, giornalisti e altri stanno già migliorando la nostra comprensione collettiva di ciò che funziona e cosa no. In “The GovLab”, ad esempio, stiamo approfondendo la nostra base di conoscenze e costruendo i meccanismi di condivisione delle informazioni necessari per rendere le iniziative basate sulla città, un successo. Abbiamo in programma di creare un database di tutti i casi di localismo dell’intelligenza artificiale, da cui attingere approfondimenti e un elenco comparativo di campagne, principi, strumenti normativi e strutture di governance.
Sviluppare le nostre conoscenze è il primo passo per rafforzare il localismo dell’IA. Le solide capacità di governance in questo settore sono il modo migliore per garantire che i notevoli progressi nell’intelligenza artificiale siano sfruttati al meglio.
Articolo originale di Stefan G. Verhulst e Mona Sloane
Traduzione di Flavia Stefanelli