“Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.”
“Manuale di Robotica, 56ª Edizione – 2058 d.C.”
Isaac Asimov
HAL 9000 : “Utilizzo le mie capacità nel modo più completo, il che, per un’entità cosciente, è il massimo che possa sperare.”
dal film “2001 Odissea nello spazio”
“Come farà l’uomo a non essere disumanizzato dalla macchina?”
Giuseppe Ungaretti
“Quando il tuo capo non è umano”
Xinjing Bao (Rivista Cinese)
Nell’impatto con l’intelligenza artificiale (IA) sorge spontanea una prima osservazione: pur non conoscendone ancora tutte le implicazioni sulla nostra vita corrente, siamo certamente avvertiti dei suoi possibili esiti nefasti.
Una consolidata letteratura distopica, nella variegata forma di romanzi, racconti, film, ci ha, infatti, da tempo, preparati ai possibili scenari che il predominio delle macchine sull’uomo potrà determinare: dal licenziamento di un lavoratore, deciso da un algoritmo, alle scelte, anche dagli esiti più vari, di una auto senza conducente umano, ai killer robot, utilizzati in azioni belliche. È già del nostro tempo attuale il racconto delle «peripezie di alcuni ingeneri sottoposti a messaggi costanti del “capo”, con il quale sono chiamati a recarsi in ufficio a qualsiasi ora del giorno[1]»[2] o dell’ all’ assunzione di un avvocato-robot in uno studio legale[3].
È su questa interiorizzata consapevolezza, che va valutata — positivamente, con entusiasmo – la scelta della Unione Europea di approntare un regolamento sulla IA (Artificial Intelligence Act)[4].
Siamo all’interno di una sfida epocale che caratterizzerà il c.d. Decennio Digitale[5] e che per le implicazioni che comporta, è bene che sia affrontata da una Istituzione “superiore” al singolo Stato nazionale, con una elaborazione normativa, prima nel mondo, che soprattutto per il nutrito retroterra documentale che la caratterizza (basti pensare al Libro Bianco sull’Intelligenza Artificiale del 2020) si rasserena sulla piena comprensione della problematica e lascia sperare nella “robusta”[6] determinazione a governarla.
Sfida cruciale, sul cui fuoco ha soffiato anche la recente crisi epidemica, innestando un (fino ad ora) impensabile corto circuito fra virus e digitalizzazione: «In appena un anno la pandemia di COVID-19 ha cambiato radicalmente il ruolo e la percezione della digitalizzazione nelle nostre società ed economie, accelerandone il ritmo. Le tecnologie digitali sono ora indispensabili nel mondo del lavoro, dell’apprendimento, dell’intrattenimento, per socializzare, fare acquisti e accedere a qualsiasi servizio, dalla sanità alla cultura. Questa situazione ha inoltre dimostrato il ruolo decisivo di un’innovazione dirompente 1 . La pandemia ha altresì messo in luce le vulnerabilità del nostro spazio digitale, la dipendenza da tecnologie non europee e l’impatto della disinformazione sulle nostre società democratiche.»[7]
Ed ancora: «uno degli insegnamenti principali che si possono trarre dalla pandemia è che la digitalizzazione è in grado di riunire le persone indipendentemente dal luogo in cui si trovano fisicamente. Le infrastrutture digitali e la connettività rapida offrono loro nuove opportunità. La digitalizzazione può diventare un fattore determinante in materia di acquisizione di diritti e libertà, consentendo alle persone di stabilire dei contatti al di là di territori specifici, posizioni sociali o gruppi di comunità e offrendo nuove possibilità di apprendimento, divertimento, lavoro, scoperta e realizzazione delle proprie ambizioni.»[8]
Non va, peraltro, trascurato l’argomento – capace di far vacillare anche il più fervente antieuropeista – relativo alla idoneità “naturale” della UE ad elaborare produzioni normative “avulse”, per così dire, dal limite della singola territorialità: norme che si pongono quali corpi regolamentari tendenzialmente idonei ad un indifferenziato utilizzo [9] e che disciplineranno tutte le singole persone presenti nell’area UE.
È già il lessico che ci avverte della condivisibile scelta di fondo che orienta gli interventi della UE, inscrivendo l’Artificial Intelligence Act nel cd. ecosistema legislativo per una IA affidabile e che – a sua volta – è ispirato ad una Intelligenza Artificiale al servizio della persona umana, in quanto tale.
Come si è espressa la Commissione, «la presente proposta presenta un approccio regolatorio all’IA orizzontale, equilibrato e proporzionato, onde limitare al minimo necessario i requisiti per affrontare i rischi e le problematiche legate all’IA, senza vincolare od ostacolare indebitamente gli sviluppi tecnologici o in altro modo aumentando in modo sproporzionato il costo di immissione sui mercati di soluzioni di IA.»
Una prospettiva antropocentrica, certo, che però va sempre e realisticamente coniugata con lo spirito mercantile che deve caratterizzare l’Unione Europea, sicché IA è anche (e soprattutto) occasione di profitti, in assenza dei quali ogni discorso di miglioramento economico e personale diviene caduco.
È dunque nella proporzionale misura compensativa fra utile economico e difesa della persona umana, dei suoi diritti fondamentali, che si gioca la “partita” cruciale che l’IA ci pone dinanzi.
Altro elemento da sottolineare, per la consapevolezza che sottende, è il duplice registro di una normativa che sia “a prova di futuro”, ma al tempo stesso solida “e flessibile”.
Ha precisato la relazione che accompagna l’A.I. Act: «la proposta stabilisce un quadro giuridico solido e flessibile. Da un lato, tale quadro normativo è completo e a prova di futuro nelle sue scelte normative fondamentali, inclusi i principi fondamentali di base sui quali deve fondarsi ogni sistema di IA. Dall’altro, mette in atto un sistema normativo proporzionato centrato su una regolamentazione ben definita basata sull’approccio risk based che non crea inutili restrizioni al commercio, per cui l’intervento legale è su misura per quelle situazioni concrete in cui vi è un motivo di preoccupazione giustificato o dove tale preoccupazione può essere ragionevolmente prevista nel prossimo futuro. Allo stesso tempo, il quadro legale include meccanismi flessibili che gli consentono di essere adattato dinamicamente agli sviluppi della tecnologia ed ai nuovi scenari.”
La definizione di IA
Sempre nella limitata ottica di una introduzione, vale centralizzare la definizione che il Regolamento elabora, individuando un sistema di IA in “qualsiasi” software che può generare risultati quali “contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono”.
«Semplificando possiamo dire che l’IA è un insieme di tecnologie che combina dati, algoritmi e potenza di calcolo. I progressi compiuti nell’ambito del calcolo e la crescente disponibilità di dati sono pertanto fattori determinanti per l’attuale crescita dell’IA. L’Europa può combinare i suoi punti di forza industriali e tecnologici con un’infrastruttura digitale di elevata qualità e un quadro normativo basato sui suoi valori fondamentali per diventare un leader mondiale nell’innovazione nell’economia dei dati e nelle sue applicazioni, come indicato nella strategia europea per i dati. Su questa base l’Europa può sviluppare un ecosistema di IA che consenta alla sua società e alla sua economia nel loro complesso di godere dei benefici apportati dalla tecnologia: ·i cittadini potranno usufruire di nuovi vantaggi, ad esempio una migliore assistenza sanitaria, un minor numero di guasti degli elettrodomestici, sistemi di trasporto più sicuri e più puliti e servizi pubblici migliori; ·nello sviluppo delle imprese sarà possibile, ad esempio, avvalersi di nuove generazioni di prodotti e servizi nei settori in cui l’Europa è particolarmente forte (macchinari, trasporti, cibersicurezza, agricoltura, economia verde e circolare, assistenza sanitaria e settori ad alto valore aggiunto come la moda e il turismo); ed i servizi di interesse pubblico potranno beneficiare, ad esempio, della riduzione dei costi di fornitura di servizi (trasporti, istruzione, energia e gestione dei rifiuti), migliorando la sostenibilità dei prodotti e dotando le forze dell’ordine di strumenti appropriati per garantire la sicurezza dei cittadini, con adeguate garanzie quanto al rispetto dei loro diritti e delle loro libertà”[10].
Si tratta, come si è visto, di una definizione ampia (e perciò variamente criticata) che si connette alle metodiche di apprendimento dell’A.I., le quali, a loro volta, registrano una summa divisio fra apprendimento sorvegliato ed apprendimento non sorvegliato: solo nella prima tipologia, si riscontra l’intervento umano, con compiti “didattici”; nell’altra branca, vige invece l’auto apprendimento che giunge sino al deep learning (o apprendimento profondo).
L’obiettivo del c.d. ecosistema legislativo per una IA affidabile è orientato ad una normativa puntuale basata sulla valutazione del rischio, tale quindi da giustificare un intervento specifico. Sotto questa angolazione, la proposta prevede una attività normativa della IA connessa ad un rischio inaccettabile; ad un “alto” rischio ovvero limitato o minimo; per contro, alla attenta perimetrazione delle “pratiche” di IA vietate.
In altri termini, il Regolamento propone le applicazioni dell’Intelligenza Artificiale in una griglia con diverse graduazioni di rischio, con la messa al bando di quelle più insidiose, classi di rischio per i diritti umani che vanno da elevato, medio e basso.
L’obiettivo è, preservando una visione antropocentrica di IA, di vietare i sistemi che costituiscono “una minaccia per la sicurezza, i redditi e i diritti dei cittadini”[11].
Sono oggetto del divieto le tecniche subliminali, come quelle che lavorino proditoriamente sulla fragilità di persone che per età, disabilità varie, possano essere vulnerabili a comportamenti indotti dannosi; parimenti vietato è il cd social credit scoring: valutazione sociale degli individui, “a punti”, con il quale si è penalizzati per tutte le violazioni commesse (quali ad es., sanzioni per violazioni stradali o simili). Il cosiddetto social credit scoring è sempre più impiegato dalle autorità cittadine in Cina, per cui i cittadini valutati in base al loto comportamento sociale, non solo si possono trovare a non poter usufruire di determinati servizi pubblici perché scesi al di sotto della soglia limite ma si ritrovano anche ad essere “controllati” attraverso un massivo utilizzo delle tecniche di identificazione biometrica da remoto.
Nell’ambito delle attività (non vietate in modo assoluto, ma) particolarmente invasive rispetto ai diritti fondamentali delle persone – la cui protezione è segno distintivo dell’Unione Europea – un posto di rilievo è da riconoscere all’impiego di sistema di identificazione biometrica a distanza in tempo reale.
Ragioni di chiara difesa personale e sociale ne ammette l’utilizzo per finalità anticrimine.
La scelta è tuttavia criticata da chi stigmatizza i possibili ambiti estensivi dell’utilizzo della identificazione biometrica, sulla base del rilievo che la limitata regolamentazione per quanto attiene alla attività di prevenzione, non chiarisce bene i limiti applicativi negli altri ambiti (fra cui, quello aziendale).
Di fronte a tale contesto, dovremo sempre più essere nani sulle spalle di giganti: difendere l’Habeas data rappresentato dalla Costituzione e dalla Carta di Nizza, nonché dalla ormai sviluppata regolamentazione della privacy (GDPR n.679/16); lottare per avere una IA al servizio della persona umana, nella strenue difesa (ex art. 2 Costituzione.) della dignità dei nostri dati, motore base delle elaborazione dell’A.I., nella forma –ormai si è capito – soprattutto del controllo trasparente, di chi li gestisce[12].
Che la acquisizione dei dati sia il motore principale non è una scoperta, ma un elemento da tenere nel debito conto: il volume dei dati prodotti a livello mondiale è in rapida crescita, dai 33 zettabyte del 2018 ai 175 zettabyte previsti nel 2025. Ogni nuova ondata di dati offre all’Europa l’opportunità di farsi spazio nell’economia agile basata sui dati e diventare un leader mondiale nel settore. Inoltre le modalità di conservazione e elaborazione dei dati cambieranno significativamente nei prossimi cinque anni. Attualmente l’80 % delle elaborazioni e delle analisi dei dati che hanno luogo nel cloud vengono effettuate in centri di dati e strutture di calcolo centralizzate e il 20 % in oggetti connessi intelligenti, quali automobili, elettrodomestici o robot di fabbricazione, e in strutture di calcolo vicine all’utente (“edge computing”). Entro il 2025 tali proporzioni cambieranno in modo significativo.[13]
Siamo, in conclusione, in presenza di una “bozza” che andrà discussa e mediata nelle varie sedi di intervento ma soprattutto ci si dovrà auspicare che sia perseguito un interesse comune e che le lobby e chi detiene i nostri dati come Google e Facebook non ostacolino l’approvazione delle regole a livello mondiale[14]. Infatti come afferma padre Philip Larrey[15]: “ci sono più di 80 regolamenti etici di imprese, centri di ricerca e istituzioni su come bisogna progettare l’ IA e su come deve comportarsi. Ma se Facebook e Google non sono d’accordo sono inutili”.
Più importante della normativa proposta è – giova ribadirlo – la consapevolezza (che deve divenire tale per tutti i soggetti che orbitano) nella U.E. che abbiamo strumenti giuridici condivisi ed affinati, per scongiurare i pericoli che quella letteratura distopica ha mostrato di tenere ben chiari.
Articolo a cura di Diotima Pagano
Per approfondimenti:
AI Takeover, a cura di Luigi Santoro
[1] “Quando il tuo capo non è umano” dalla Rivista Xinjing Bao, citata in “L’Espresso”, n. 14 del 28 marzo 2021, pg. 80: “L’algoritmo manager ti licenzia per errore. E non puoi protestare” di Simone Pieranni.
[2] In tema: “il riconoscimento facciale è poco affidabile” – (L’ intelligenza artificiale è usata sempre più spesso per individuare le emozioni attraverso le espressioni del viso.) – cfr. A.Hagerty e A.Albert- the Conversation tradotto su rivista Internazionale n.1407 – anno 28 – pg. 26
[3] “Intervista a Yan Pecoraro, socio del primo studio legale italiano ad avere adottato un rivoluzionario software di intelligenza artificiale (in grado di fare il lavoro di cento giovani praticanti).” cfr. Start – podcast del Sole 24 ore
[4] La proposta di Regolamento IA è composto da 13 Titoli e 85 articoli
[5] Bruxelles, 9.3.2021 COM(2021) 118 final Comunicazione della Commissione al Parlamento Europeo, al Consiglio, al Comitato Economico e Sociale Europeo e al Comitato Delle Regioni Empty – Bussola per il digitale 2030: il modello europeo per il decennio digitale.
[6] In “Orientamenti etici per una IA affidabile”: “Un’IA affidabile possiede tre componenti che dovrebbero essere sempre presenti durante l’intero ciclo di vita del sistema: 1. legalità, l’IA deve ottemperare a tutte le leggi e a tutti i regolamenti applicabili, 2. eticità, l’IA deve assicurare l’adesione a principi e valori etici, e 3. robustezza, dal punto di vista tecnico e sociale poiché, anche con le migliori intenzioni, i sistemi di IA possono causare danni non intenzionali”.
[7] Bussola per il digitale 2030: il modello europeo per il decennio digitale. 1. Unire le forze: la trasformazione digitale per la resilienza dell’Europa.
[8] “Ciò consentirà di creare una società in cui la distanza geografica sarà meno importante, in quanto le persone potranno lavorare, apprendere, interagire con le pubbliche amministrazioni, gestire le proprie finanze e i pagamenti, utilizzare i sistemi sanitari, i sistemi di trasporto automatizzati, partecipare alla vita democratica, usufruire di servizi di intrattenimento oppure incontrarsi e discutere con altre persone in qualsiasi parte dell’UE, comprese le zone rurali e isolate.”
[9] Bussola cit.: “Nel discorso sullo stato dell’Unione di settembre 2020, la presidente von der Leyen ha annunciato che l’Europa dovrebbe garantire una sovranità digitale con una visione comune dell’UE per il 2030 basata su obiettivi e principi chiari. La presidente ha posto l’accento in particolare su un cloud europeo, sulla leadership nel settore dell’intelligenza artificiale etica, su un’identità digitale sicura per tutti e su infrastrutture di dati, supercomputer e connettività ampiamente migliorate. In risposta, il Consiglio europeo ha invitato la Commissione a presentare entro marzo 2021 una bussola per il digitale globale che definisca le ambizioni digitali per il 2030, istituisca un sistema di monitoraggio e delinei le tappe fondamentali e i mezzi per realizzare tali ambizioni.”
[10] Libro bianco sull’intelligenza artificiale – Un approccio europeo all’eccellenza e alla fiducia, pg. 3.
[11] La proposta prevede multe fino a 6 per cento del fatturato per le aziende che violeranno e norme, cfr. rivista Internazionale, n.1407 – anno 28
[12] Sulla consapevolezza della tensione fra diritti fondamentali e A.I., cfr., Libro Bianco cit., pg. 18: “L’uso dell’IA può pregiudicare i valori su cui si fonda l’Unione e causare violazioni dei diritti fondamentali, compresi i diritti alle libertà di espressione e di riunione, la dignità umana, la non discriminazione fondata sul sesso, sulla razza, sull’origine etnica, sulla religione o sulle convinzioni personali, sulla disabilità, sull’età o sull’orientamento sessuale (ove applicabili in determinati settori), la protezione dei dati personali e della vita privata 34 o il diritto a un ricorso giurisdizionale effettivo e a un giudice imparziale, nonché la tutela dei consumatori. Tali rischi potrebbero derivare da difetti nella progettazione complessiva dei sistemi di IA (anche per quanto riguarda la sorveglianza umana) o dall’uso di dati senza che ne siano state corrette le eventuali distorsioni (ad esempio se un sistema è addestrato utilizzando solo o principalmente dati riguardanti gli uomini, il che comporta risultati non ottimali per quanto concerne le donne).”
[13] Dal Libro Bianco cit., pg. 5.
[14] “La Commissione deve impedire che le lobby diluiscano le regole e portare le sue idee al livello successivo, quello globale. La vera partita è quella che si gioca tra le superpotenze dell’intelligenza artificiale, gli Stati Uniti e la Cina” – cfr.Jannis Brühl, Süddeutsche Zeitung – tradotto su rivista Internazionale n.1407 – anno 28 – pg 26
[15] Padre Philip Larrey – Professore presso la cattedra di Logica ed Epistemologia presso la Pontificia Università Lateranense in Vaticano – cfr. Quotidiano Sole 24 ore -inserto della domenica – n. 146