IL PARLAMENTO UE HA APPROVATO IL DSA CONTRO FAKE NEWS, ODIO, TRUFFE da IL MANIFESTO
Saperi. In assenza di un grande collettore politico prevalgono le specializzazioni, manca il dialogo tra i saperi e la frammentazione blocca le potenzialità del pensiero critico. Una parziale cartografia degli studiosi italiani di varie discipline
Cultura, Saperi, Università, Dialogo
7495
post-template-default,single,single-post,postid-7495,single-format-standard,stockholm-core-2.3.2,select-child-theme-ver-1.0.0,select-theme-ver-9.0,ajax_fade,page_not_loaded,,qode_menu_,wpb-js-composer js-comp-ver-6.7.0,vc_responsive

IL PARLAMENTO UE HA APPROVATO IL DSA CONTRO FAKE NEWS, ODIO, TRUFFE da IL MANIFESTO

Contro fake, odio, truffe online il sì di Strasburgo. Lobbies in allarme

Il testo è una vittoria della società. Le piattaforme stanno premendo sugli Stati e hanno investito cifre record per contenere gli effetti avversi del progetto di legge

Teresa Numerico   06.02.2022

Il 20 gennaio 2022 il Parlamento europeo ha approvato il Digital Services Act (Dsa), un regolamento per contrastare le attività illegali in rete e definire con chiarezza le responsabilità dei fornitori di servizi online come le grandi piattaforme, gli intermediari del mercato digitale e tutte quelle strutture tecniche che offrono servizi attraverso l’infrastruttura di internet. Insieme al Digital Markets Act (Dma), il Dsa propone una riorganizzazione complessiva del mondo digitale. L’obiettivo principale è rendere illegale online ciò che lo è offline: per esempio sanzionare la vendita di merci contraffatte, contrastare l’istigazione all’odio e contenere la disinformazione.

L’approvazione del Parlamento è il penultimo atto al quale devono seguire gli incontri del Trilogo, cioè i negoziati che includono Commissione, Parlamento e Consiglio, in questo semestre sotto la presidenza francese, che pone il Dsa tra i suoi obiettivi. Solo dopo l’accordo a tre, il regolamento entrerà in vigore.
Il testo approvato dall’assemblea rappresenta una netta vittoria della società civile, incarnata dai parlamentari europei, ma non è detto che sarà confermato dalle trattative trilaterali. Le lobby delle piattaforme stanno premendo sugli Stati e hanno investito cifre record per contenere gli effetti avversi del progetto di legge.

La profilazione pubblicitaria (microtargeting) è un punto qualificante. Il Dsa proibisce di utilizzare queste tecniche sui minori e impedisce per gli adulti di usare l’orientamento sessuale, la religione o le convinzioni politiche per classificarli; consente, inoltre, ai cittadini che lo preferiscano di rifiutarsi di accettare annunci mirati, proibendo di dare meno risalto a questa possibilità nell’interfaccia. Si obbligano le piattaforme a dare spiegazioni chiare su come vengano monetizzati i dati. Si vieta, inoltre, il dark pattern, cioè la tendenza a costruire interfacce invadenti e ingannevoli che spingano gli utenti verso azioni inconsapevoli, a beneficio delle piattaforme commerciali o sociali. Si tratta di una soluzione di compromesso rispetto alla proibizione completa della pubblicità mirata.

Tutte le piattaforme che usano sistemi di raccomandazione (e non solo le Very Large Online Platforms Vlop) hanno l’obbligo di rendere chiari i meccanismi di selezione e visualizzazione dei contenuti. Sono previste alcune esenzioni per le piccole e medie imprese.
Le grandi piattaforme, invece, sono tenute a contenere i rischi per la salute pubblica causati dal loro eccessivo uso, considerato una dipendenza. Devono permettere agli utenti di accedere a un sistema di raccomandazioni non basato sulla profilazione e garantire, a coloro che optano per non essere schedati, la stessa fruizione del servizio. Devono spiegare il design, la logica e il funzionamento degli algoritmi che adottano, se gli viene richiesto dai regolatori nazionali.

Gli intermediari dell’e-commerce hanno l’obbligo di controllare e tracciare i venditori che si servono della loro infrastruttura, secondo il principio (Know Your Business Customer, Kybc).
Gli utenti delle piattaforme e le organizzazioni che li rappresentano possono chiedere di essere compensati, qualora abbiano subito dei danni dalle piattaforme che ne avessero leso le prerogative. Le grandi piattaforme devono anche consentire e supportare strumenti di audit di soggetti terzi, tra i quali sono ammissibili, oltre ai ricercatori accademici, anche esperti provenienti dalla società civile, dalle organizzazioni non governative.

Nonostante la proposta di regolazione sia promettente e potrebbe costituire un modello globale di tutela dei cittadini dal potere incontrollato delle grandi piattaforme, alcune divergenze sottili e diaboliche riguardano i dettagli dell’interpretazione dei concetti trattati. Si riferiscono, cioè, alla definizione dei comportamenti oggetto di divieto e soprattutto alla possibilità di costruire meccanismi davvero stringenti di valutazione e audit esterno delle tecniche algoritmiche di raccomandazione e procedure di sanzione, qualora le imposizioni non venissero rispettate.

Un’ultima criticità riguarda l’eliminazione di contenuti illegali, pedopornografici, violenti, inneggianti all’odio, o frutto di disinformazione perché la tutela degli utenti deve essere commisurata alla libertà di espressione, tanto che si era ipotizzata una riserva per i contenuti provenienti dalle aziende dei media, escluse dalla valutazione da parte delle piattaforme.
Entrare nel merito della moderazione dei contenuti è un ginepraio difficile da districare, senza rischiare di ledere diritti fondamentali. Meglio sarebbe “limitarsi” a reclamare che siano esplicitate le regole che governano la visibilità e promuovono la viralità di alcuni contenuti. Le piattaforme dovrebbero rendere conto del loro ruolo tecnoeditoriale.

No Comments

Post a Comment

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.