Digital service act: nuove norme europee sulla sicurezza e trasparenza delle aziende digitali

Il 25 agosto è entrato in vigore il digital services act (DSA), il nuovo regolamento europeo sulla responsabilità delle piattaforme per i contenuti online. Si tratta di un aggiornamento necessario della direttiva sul commercio elettronico che risaliva al 2000 e che mal si adattava al web come lo conosciamo oggi.

Il nuovo regolamento si applicherà in modo indistinto in tutta l’Unione Europea, garantendo agli utenti gli stessi diritti ovunque e facilitando il lavoro delle aziende che non dovranno confrontarsi con la legislazione di ogni singolo paese europeo. 

L’applicazione riguarda tutti gli intermediari online, dai motori di ricerca ai social network, marketplace, servizi di hosting ecc. che dovranno sottostare a richieste più stringenti a seconda della loro grandezza. Infatti, la commissione europea ha stilato un elenco che identifica le cosiddette “VLOP”, very large online platforms e le “VLOSE”, very large online search engines, ovvero tutte le piattaforme e motori di ricerca che superano i 45 milioni di utenti mensili attivi in Europa, che corrisponde al 10% della popolazione dell’unione. All’interno di questo elenco rientrano social come Facebook, Instagram, Snapchat, Tiktok, X (ex Twitter), Linkedin, Pinterest, Youtube, marketplace come Amazon, Zalando, Google Shopping, Aliexpress e Alibaba, servizi di prenotazione come Booking.com, gli store per le applicazioni come App Store e Google Play, e poi Google Maps, Wikipedia, e i motori di ricerca come Google e Bing.

Le nuove norme riguardano:

  • La segnalazione dei contenuti. Con la precedente norma le piattaforme erano ritenute responsabili per il caricamento di contenuti illegali da parte degli utenti solo se, una volta venute a conoscenza, non avessero provveduto alla loro rimozione. Il principio rimane invariato ma le big tech dovranno dotarsi di un team dedicato alle segnalazioni provenienti dagli utenti e dalle autorità.

Le piattaforme potranno procedere alla rimozione dei contenuti o sospensione gli utenti previo avviso che specifichi in modo chiaro la motivazione. Non basterà quindi dire che si sono violati i termini e condizioni in modo generico.

Gli stessi termini e condizioni dovranno essere esposti in modo più chiaro e semplice.

In modo analogo al controllo dei contenuti delle piattaforme social, i marketplace dovranno verificare che non sia venduta merce illegale.

  • Analisi del rischio sistemico. Il DSA prevede l’obbligo annuale per le piattaforme di redigere un report che valuti i rischi per i diritti fondamentali, la libertà di espressione, il dibattito pubblico, i minori, derivanti da un abuso o uso illegittimo dei loro servizi. Individuati questi rischi dovranno presentare delle soluzioni per mitigarne l’impatto, come l’uso di algoritmi che raccomandino certi contenuti piuttosto che altri o la modifica di termini e condizioni.

Per verificare che le aziende facciano il possibile potranno essere sottoposte ad audit esterni delle autorità o ricercatori.

  • Algoritmi, pubblicità e dark pattern. Le aziende saranno tenute a spiegare su quali parametri lavorano gli algoritmi di raccomandazione dei contenuti. L’utente potrà decidere, inoltre, di vedere i post nel modo in cui l’algoritmo li propone, quindi in modo personalizzato, oppure in modo cronologico, con la possibilità di essere meno soggetti ad influenze esterne.

Per limitare l’influenza delle pubblicità online questa non potrà avvalersi di informazioni che riguardano dati sensibili come ad esempio la religione, salute, orientamento sessuale, come non potrà utilizzare dati dei minori per proporre loro pubblicità personalizzata.

Le aziende dovranno tener traccia degli investitori pubblicitari conservando, per ogni post pubblicitario, le informazioni riguardo chi lo ha pubblicizzato e chi ha pagato la sponsorizzazione, per quanto tempo è stato mostrato e a quale gruppo di persone (età, sesso, interessi, localizzazione).

Saranno poi vietati i dark pattern, metodi che servono a indirizzare gli utenti verso scelte precise (come ad esempio il pulsante “accetta” nei banner dei cookie solitamente colorato in modo diverso rispetto agli altri).

Come hanno risposto le aziende

La piattaforma di tiktok ha presentato ad agosto i suoi aggiornamenti finali che comprendono una maggior facilità nella segnalazione dei contenuti illegali, più informazioni su come vengono moderati i contenuti e sul funzionamento del sistema di raccomandazione e una maggior tutela per i minori.

Google ha ricordato che molte delle richieste contenute nel DSA sono in atto già da tempo e ha migliorato il suo Transparency center, l’elenco di tutti gli investitori pubblicitari che mostrano i loro ads sui servizi di Google.

Amazon e Zalando, invece, hanno contestato alla corte di giustizia dell’Unione Europea di rientrare tra le VLOP.

Per ora i cambiamenti riguardano solo gli utenti europei ma non si esclude il fatto che le nuove tutele possano estendersi a livello globale. Anche gli Stati Uniti da qualche anno stanno discutendo di aggiornare le norme in tal senso considerando che la loro legge di riferimento risale al 1996, quando Google e social network non esistevano ancora.

In Cina, invece, dove molte delle aziende nominate non sono presenti, è già in vigore da tempo una norma volta a regolare l’uso degli algoritmi da parte delle piattaforme nella promozione di certi contenuti.

Da febbraio 2024 il DSA diventerà vincolante anche per tutte le piattaforme con meno di 45 milioni di utenti mensili. Molti paesi, tra cui l’Italia, però, non hanno ancora designato l’autorità nazionale che si occuperà di garantire il rispetto delle norme.