domenica, 29 Gennaio 2023

Ci sono machine learning e intelligenza artificiale dietro al “10yearschallenge”

Da non perdere

Due immagini, una accanto all’altra, che mostrano come siamo adesso e com’eravamo dieci anni fa: il gancio per coinvolgere gli utenti sui social ha sempre qualcosa a che fare con l’estetica e la vanità, con la voglia smodata di esporsi in webvisione. Così un giochino come la #10yearschallenge diventa virale, e ci ritroviamo le timeline di tutti i nostri social intasate di foto splittate tra il 2009 e il 2019, a partire dalle grandi aziende fino ad arrivare a politici, personaggi famosi e vicini di casa. Visto così, si tratta solo di un passatempo divertente per ammazzare il tempo sui social network, un po’ come quei quiz in cui, dopo aver risposto ad alcune domande, ci viene detto che personalità abbiamo, cosa ci aspetterà per il 2019 o a quale personaggio storico assomigliamo. Negli ultimi mesi li hanno definiti addirittura “cavalli di Troia”, ed è proprio approfondendo la questione che nasce il problema: questo genere di applicazioni sono esattamente quelle sfruttate per rubare dati agli utenti e, storia recente, per mettere a punto uno dei più inquietanti sistemi di propaganda elettorale mai visti (ricordate Cambridge Analytica?). Come sottolineato dalla scrittrice Kate O’Neill, una visione ingenua poteva andare bene una decina di anni fa. Storie come questa fanno sì che venga spontaneo domandarsi come verranno utilizzati tutti questi dati e se serviranno ad addestrare un algoritmo a riconoscere come cambiano le persone con il progredire dell’età.

COSA C’È DIETRO IL TEN YEARS CHALLENGE?

L’intervento di Kate O’Neill, comparso su Wired Usa, parte da una premessa molto semplice che dialoga con il contesto sociale e tecnologico attuale: oggi non è più permesso riferirsi ai social con ingenuità e poca consapevolezza. Sarebbe il caso di valutare sempre quale sia l’utilizzo che può essere fatto dei dati che diamo in pasto alle piattaforme e, soprattutto, le ricadute sociali e tecnologiche che questi meccanismi possono attivare. Non di certo riflessioni semplici, soprattutto se formazione e consapevolezza del peso dei social continuano a latitare. In questo caso, la risposta è già stata abbozzata: con il “ten years challenge” c’entra il machine learning. Come spiega anche Wired Italia in un articolo sul tema, ogni volta che sul monitor del vostro computer o smartphone compare un captcha code (uno di quei fastidio meccanismi che vi chiede di indicare in quali immagini sono presenti delle automobili una bicicletta o un cane), non state solo dimostrando di non essere dei bot, ma state prima di tutto addestrando un’intelligenza artificiale. I sistemi di machine learning hanno bisogno proprio di questo: dati, foto e centinaia di migliaia di tentativi per imparare a fare tutto ciò che oggi va sotto il nome di intelligenza artificiale. Ecco dove voleva andare a parare Kate O’Neill: il giochino dei 10 anni potrebbe permettere a Facebook e al suo algoritmo di imparare come noi utenti cambiamo nel corso del tempo, riconoscendoci nonostante il passare degli anni

SIAMO PRONTI PER IL RICONOSCIMENTO FACCIALE?

Ritrovare i bambini scomparsi o mappare le persone e riconoscere i dissidenti che partecipano ad una manifestazione. Il riconoscimento facciale, come tutte le tecnologie innovative, porta con sé i soliti timori del caso. “Siamo in un momento cruciale per questo tipo di tecnologia e le scelte fatte dalle aziende determineranno se le future generazioni dovranno avere paura di partecipare ad una manifestazione, frequentare luoghi religiosi o semplicemente vivere le loro vite”. A parlare è Nicole Ozer dell’American Civil Liberties Union (Aclu), una delle 85 associazioni per i diritti umani e digitali che stanno allertando su rischi e conseguenze della sorveglianza di massa con l’uso autorizzato della tecnologia. Il messaggio, indirizzato alle big della Silicon Valley è chiaro: non vendete le tecnologie legate al riconoscimento facciale ai governi. Nel frattempo, infatti, le acque si sono già iniziate a muovere: come riporta anche Repubblica, Amazon ha elaborato Rekognition che secondo indiscrezioni l’Fbi starebbe già provando in anteprima. Google ha abbandonato l’analogo Project Maven anche per le proteste dei dipendenti, e a dicembre scorso Microsoft ha chiesto al governo Usa più regole sul riconoscimento facciale per evitare il rischio che questa tecnologia sfugga al controllo. L’impressione è che parlare di paranoia su questo genere di temi sia quantomeno fuori luogo. La speranza, invece, è che casi come Cambridge Analytica spingano le istituzioni ad affrontare in anticipo le questioni legate a privacy e cybersecurity, dando agli utenti finali gli strumenti giusti per guardare con maggiore consapevolezza le nuove dinamiche che regolano il cyberspazio.

 

di Natale De Gregorio

[dt_quote]Oggi non è più permesso riferirsi ai social con ingenuità e poca consapevolezza. Sarebbe il caso di valutare sempre quale sia l’utilizzo che può essere fatto dei dati che diamo in pasto alle piattaforme e, soprattutto, le ricadute sociali e tecnologiche che questi meccanismi possono attivare.[/dt_quote]
[dt_blog_masonry image_scale_animation_on_hover=”n” image_hover_bg_color=”n” bwb_columns=”desktop:1|h_tablet:1|v_tablet:1|phone:1″ dis_posts_total=”2″ content_alignment=”center” post_date=”n” post_category=”n” post_author=”n” post_comments=”n” post_content=”off” read_more_button=”off” category=”news”]

- Advertisement -spot_img

Talk For

F&NEWS