martedì, 22 Giugno 2021

Contrasto all’hate speech: Twitter si affida alla scienza

Da non perdere

È intuitivo associare le piattaforme digitali a Facebook e la settimana che è appena iniziata fornirà ulteriori elementi sulla vicenda che ha come oggetto l’acquisizione e l’utilizzo dei dati degli utenti.

Su Ottimisti & Razionali però non stiamo trascurando nemmeno Twitter, perché i problemi che si stanno palesando negli ultimi mesi spingono a una revisione delle regole e della condotta di tutti i nuovi media. Il social dei cinguettii non è immune da polarizzazione, hate speech e notizie inesatte o false.

In particolare, a seguito della sparatoria dello scorso 3 aprile nella sede di YouTube a San Bruno, in California, Twitter ha ammesso che, durante tragedie del genere, c’è spesso chi usa le piattaforme digitali per diffondere disinformazione. In caso di tweet particolarmente gravi, il social network può decidere di rimuoverli e prendere provvedimenti sui contenuti indirizzati contro una categoria protetta e sui comportamenti abusivi che violano le regole.

Nel dodicesimo report sulla trasparenza, pubblicato ogni due anni, Twitter ha fornito indicazioni sulla rimozione di contenuti. Tra il primo agosto 2015 e il 31 dicembre 2017, ad esempio, gli account sospesi che promuovevano il terrorismo sono stati 1.210.357.  In particolare, tra il primo luglio 2017 e il 31 dicembre dello stesso anno, sono stati 274460, ovvero l’8,4% in meno del numero registrato nel corrispondente periodo precedente. La rimozione di account che promuovono il terrorismo pare essere efficace, infatti per la seconda volta è stato rilevato un calo del numero di cancellazioni e dunque una minor presenza sulla piattaforma.

Twitter fornisce molti dettagli su come avviene la rimozione dei contenuti alla luce delle modifiche alla policy intervenute lo scorso dicembre. Nella valutazione interviene anche una distinzione tra le richieste di cancellazione fatte ad esempio da organi giudiziari e quelle basate sull’interpretazione di leggi locali e richieste avanzate da soggetti affidabili e organizzazioni non governative.

In particolare, per essere coadiuvato in questa faticosa attività, Twitter utilizza un database indipendente chiamato Lumen che archivia e analizza tutte le richieste di rimozione di contenuti online. In tal modo il materiale sospetto può essere visionato pubblicamente e viene inviata una notifica agli utenti coinvolti, tranne nelle situazioni in cui ciò sia proibito per ragioni specifiche.

Monitorare i contenuti su Twitter e decidere se rimuoverli o meno, è un’attività complessa che deve mediare tra l’esigenza di garantire libertà di espressione e la necessità di evitare condotte potenzialmente pericolose e dannose. Arginare comportamenti illegali o lesivi è un lavoro senza soluzione di continuità, come si evince dalle parole del cofondatore e amministratore delegato della società Jack Dorsey, che ha scritto: “siamo anche consapevoli della disinformazione che si diffonde su Twitter. Stiamo monitorando, imparando e prendendo provvedimenti”.

Ciò che in qualche misura conforta è sapere che il social network si sta sforzando molto per arginare alcuni aspetti controversi della piattaforma. In quale misura sia spinto a farlo da motivazioni di carattere economico o dal timore di incappare in sanzioni e provvedimenti non è dato saperlo, ma è innegabile che da parte sua vi sia un atteggiamento collaborativo e propositivo.

Lo dimostra anche una sorta di esperimento, partito lo scorso 6 aprile, che vede coinvolto il popolare social network dai 280 caratteri e alcuni ricercatori. Susan Benesch dell’Università di Harvard e J. Nathan Matias della Princeton University hanno scritto su Medium di cosa si tratta.

L’assunto di partenza, dimostrato da alcune ricerche, è che mostrare le regole di una piattaforma digitale ai propri utenti ne migliora il comportamento. Inoltre, quanto più ciò viene fatto in maniera chiara, maggiore sarà la possibilità di essere seguiti. Le persone infatti sono condizionate dalle norme sociali accettate convenzionalmente.

Twitter ha dunque deciso di rendere pubbliche le sue regole di condotta per verificare se questo migliora la qualità delle interazioni online e riduce gli abusi. Per verificare cosa accade da un punto di vista scientifico vi saranno Susan Benesch, J. Nathan Matias, Derek Ruths e Adam Joinson.

I ricercatori specificano di essere indipendenti rispetto alla piattaforma e di aver predisposto una serie di limiti legali, etici e scientifici. A tutela della privacy inoltre, il social network fornirà loro solo informazioni aggregate anonime ma non su singole persone o account.

I responsabili delle piattaforme digitali hanno molte buone intenzioni, ma spesso idee promettenti si sono rivelate inefficaci perché non era mai stata provata la loro utilità da un punto di vista scientifico. I nuovi media potrebbero dunque perseverare in approcci o metodi inadeguati, danneggiando indirettamente milioni di utenti.

Ecco perché Twitter ha deciso di affidarsi agli esperti e di mettersi a loro disposizione. Anche questo esperimento va nella direzione di una maggiore trasparenza, quella che fino ad ora non era contemplata dalle piattaforme digitali e che adesso pare essere l’unica possibilità per recuperare credibilità.

 

di Giusy Russo

[dt_quote font_size=”normal”]spesso idee promettenti si rivelano inefficaci perché non fondante da un punto di vista scientifico. Questo può portare  perseverare in approcci o metodi inadeguati, danneggiando indirettamente milioni di utenti[/dt_quote]
[dt_blog_masonry image_scale_animation_on_hover=”n” image_hover_bg_color=”n” bwb_columns=”desktop:1|h_tablet:1|v_tablet:1|phone:1″ dis_posts_total=”3″ content_alignment=”center” post_date=”n” post_category=”n” post_author=”n” post_comments=”n” post_content=”off” read_more_button=”off” category=”news”]

- Advertisement -spot_img

Talk For

F&NEWS