lunedì, 25 Settembre 2023

Chi dovrebbe decidere come decidono gli algoritmi?

Da non perdere

CAMBRIDGE – Negli ultimi anni, lo studio “Moral Machine” promosso dal Massachusetts Institute of Technology (MIT) ha esaminato le preferenze del pubblico su come le applicazioni dell’intelligenza artificiale (IA) dovrebbero comportarsi in diversi contesti. Una delle evidenze emerse dai dati è che quando un veicolo autonomo si trova di fronte ad uno scenario di vita o di morte, l’opinione delle persone rispetto a come il veicolo dovrebbe comportarsi dipende dal loro luogo di provenienza e da cosa sanno dei pedoni o dei passeggeri coinvolti.

Ad esempio, in una versione adattata alla guida autonoma del classico “dilemma del carrello ferroviario”, alcuni potrebbero preferire che l’auto colpisca un assassino condannato prima di danneggiare gli altri, o che colpisca un anziano prima di un bambino. Altri ancora potrebbero obiettare che la decisione del veicolo dovrebbe essere affidata ad un semplice “lancio di dadi” in modo da evitare discriminazioni basate sui dati.

Generalmente, la soluzione di questi dilemmi è materia riservata alle aule dei tribunali o alle indagini di polizia dopo che il fatto è avvenuto. Ma nel caso dei veicoli a guida autonoma le scelte saranno effettuate in pochi millesimi di secondo, un lasso di tempo insufficiente per prendere una decisione informata. Ciò che conta non è ciò che noi sappiamo, ma ciò che sa la macchina. La questione, quindi, riguarda quali informazioni dovrebbero avere i veicoli a guida autonoma sulle persone che li circondano e se alle aziende dovrebbe essere consentito di dotare le macchine di parametri etici diversificati per ottenere un vantaggio competitivo.

Si consideri il seguente scenario: un’auto cinese ha standard di fabbrica diversi rispetto a un’auto di produzione statunitense, ma viene spedita e utilizzata negli Stati Uniti. Questa auto di fabbricazione cinese e un’auto prodotta negli Stati Uniti si stanno dirigendo verso una inevitabile collisione. Se il conducente dell’auto cinese ha “preferenze” etiche diverse dal guidatore dell’auto statunitense, quale sistema dovrebbe prevalere?

Al di là delle differenze culturali alla base delle preferenze etiche, bisogna anche considerare le disparità relative alla regolamentazione dei dati tra vari paesi. Un’automobile di fabbricazione cinese, ad esempio, potrebbe avere accesso ai dati sul punteggio sociale dei cittadini, consentendo al suo algoritmo decisionale di incorporare input aggiuntivi non disponibili alle case automobilistiche statunitensi. Dati più ricchi potrebbero portare a decisioni migliori e più coerenti, ma questo vantaggio dovrebbe consentire a un sistema di annullarne un altro?

Chiaramente, prima che i veicoli a guida autonoma vengano impiegati in maniera diffusa, dovremo stabilire chi possiede la responsabilità del processo decisionale algoritmico tra le autorità municipali, i governi nazionali e le istituzioni multilaterali. Inoltre, avremo bisogno di nuovi quadri regolatori per governare questa “intersezione” tra business e Stato. La questione non riguarda esclusivamente come i veicoli a guida autonoma si comporteranno in scenari estremi, ma come le aziende interagiranno con culture diverse nello sviluppo e nell’impiego di algoritmi decisionali.

È facile immaginare che tutti i produttori di veicoli autonomi pubblicizzeranno semplicemente sistemi etici che premiano la vita del conducente sopra ogni altra cosa o che consentono all’utente di scegliere le proprie “impostazioni etiche”. Per evitare questa “tragedia dei beni comuni”, occorrerà elaborare sistemi condivisi per consentire la comunicazione e di coordinare le decisioni tra i veicoli autonomi. Ma nello sviluppare questi sistemi in diversi contesti culturali, i policymaker e le imprese si dovranno confrontare con le diverse nozioni culturali di sovranità, privacy e autonomia individuale.

Ciò pone ulteriori sfide, perché i sistemi di intelligenza artificiale non tollerano l’ambiguità. Progettare un’applicazione basata sull’IA da zero richiede una profonda specificità; nel bene o nel male, questi sistemi fanno solo ciò che gli si dice di fare. Ciò significa che aziende, governi e altri provider dovranno prendere scelte esplicite quando codificano i protocolli di risposta per situazioni diverse.

Tuttavia, prima che ciò accada, i policymaker dovranno stabilire la portata della responsabilità algoritmica, per determinare se e quali decisioni dovrebbero essere lasciate a imprese o individui. Quelle che rientrano nelle competenze dello Stato dovranno essere discusse, e dato che tali questioni etiche e morali non hanno risposte facili è difficile immaginare che possa emergere un consenso. Fino a quando non sarà raggiunta una soluzione definitiva, sarà necessario creare sistemi che almeno facilitino la comunicazione tra veicoli autonomi e fungano da arbitro nelle controversie algoritmiche e gli incidenti stradali.

Data la spiccata specificità necessaria nella progettazione degli algoritmi decisionali, è chiaro che servirà l’azione di un organismo internazionale per definire gli standard in base ai quali verranno risolti i dilemmi morali ed etici. Dopotutto, la guida autonoma è solo una delle possibili applicazioni del processo decisionale algoritmico. In prospettiva, gli standard di accountability algoritmica riguarderanno un numero crescente di ambiti.

In definitiva, la questione primaria da dirimere è se le imprese abbiano il diritto di definire quadri etici alternativi per il processo decisionale algoritmico. Noi argomentiamo che non lo possiedono.

Nell’era dell’intelligenza artificiale, alcune componenti della catena del valore globale finiranno per essere inevitabilmente automatizzate: a quel punto non saranno più considerate dalle imprese come aree in cui perseguire un vantaggio competitivo. Proprio in queste aree dovrebbe avviarsi il processo per arrivare a determinare una accountability algoritmica. In un modo o nell’altro, le decisioni verranno prese, ed è meglio che ciò avvenga in modo uniforme e nel modo più democratico possibile.

Articolo originale: https://www.project-syndicate.org/commentary/ai-ethics-moral-decisions-by-mark-esposito-et-al-2019-04

 

Traduzione di Matteo Arlacchi

[dt_quote]Contrariamente alle distopie fantascientifiche in cui le macchine diventano consapevoli e prendono il sopravvento, le applicazioni di intelligenza artificiale faranno solo ciò che gli umani dicono loro di fare. Quindi è nell’interesse di tutti considerare come tecnologie come le auto a guida autonoma seguiranno i dilemmi etici della vita o della morte nel mondo reale.[/dt_quote]
[dt_blog_masonry image_scale_animation_on_hover=”n” image_hover_bg_color=”n” bwb_columns=”desktop:1|h_tablet:1|v_tablet:1|phone:1″ dis_posts_total=”2″ content_alignment=”center” post_date=”n” post_category=”n” post_author=”n” post_comments=”n” post_content=”off” read_more_button=”off” category=”news”]

- Advertisement -spot_img

Talk For

F&NEWS