È di qualche giorno fa la triste notizia della morte della piccola Antonella, vittima di una sfida social su portale Tik Tok, che ha sconvolto la comunità isolana aprendo, e spero non solo temporaneamente, un dibattito sull’esigenza immediata di garantire la sicurezza dei minori sul web, e in generale nel mondo digitale, dotando il nostro Paese di testi normativi idonei a prevenire altre morti ingiustificate, nonché di proteggere i bambini dalle pericolose insidie nascoste nel fenomeno dell’adescamento diretto all’abuso e allo sfruttamento sessuale, cosiddetto grooming.
Non può, certamente, essere rimessa solo alla capacità educativa dei singoli genitori, in molti nemmeno tecnicamente formati tanto quanto i figli sul mondo digitale e sulle innumerevoli piattaforme social che si presentano loro, il dovere di garantire la sicurezza dei nostri bambini e di vigilare nel mondo digitale che con tanta velocità e facilità ha stravolto il modo di crescere ed affacciarsi la vita. Autostrade virtuali si sostituiscono alle strade delle cittadine, anche di quelle siciliane dove altro progresso tarda invece ad arrivare, che non è nemmeno corretto tentare di sbarrare. Non solo è un’illusione pensare di proteggere i giovani impedendo loro di accedere ai social network o mettendo filtri su filtri, per l’ovvio e banale risvolto psicologico influente sulla crescita di un futuro adulto sicuro, ma è innegabile che la rete, oltre ai pericoli offre opportunità. Quel che urge, oltre dei percorsi sociali di formazione, è un sistemico pacchetto normativo che renda l’Italia ed anche l’Europa pronta davvero per l’era digita, in fatto e in diritto.
L’unico intervento statale, dopo la morte della piccola Antonella, è stato un provvedimento, tanto tardivo quanto precario, del Garante per la protezione dei dati personali di blocco immediato ed in via d’urgenza nei confronti di Tik Tok dell’uso dei dati degli utenti “per i quali non vi sia assoluta certezza dell’età e, conseguentemente, del rispetto delle disposizioni collegate al requisito anagrafico”.
Provvedimento in verità già preceduto, a seguito di private segnalazioni, le stesse che il Garante pubblicamente esorta a fare ancora oggi, da contestazioni nei confronti di Tik Tok di una serie di violazioni: scarsa attenzione alla tutela dei minori, facilità con la quale è aggirabile il divieto di iscriversi per i minori di anni tredici, poca trasparenza e chiarezza nelle informazioni rese agli utenti ed altre contestazioni che, evidentemente, nulla hanno valso per salvare la vita di Antonella.
Lo stesso provvedimento inibitorio assunto dal Garante è temporaneamente limitato stante la valenza limitata fino al quindici febbraio, data oltre la quale saranno assunte ulteriori valutazioni.
Viene da chiedersi, però, cosa potrà fare dopo il 15 febbraio il Garante, considerando che secondo la giurisprudenza della Corte di Giustizia dell’Unione Europea (CGUE) i contenuti illeciti dovrebbero essere rimossi ed ogni provvedimento restrittivo dovrebbe essere assunto solo a seguito di un ordine giudiziario emesso da uno Stato membro e che i prestatori di servizio possono ricorrere a strumenti e tecnologie di ricerca automatizzati per rilevare ed eliminare i contenuti equivalenti ad altri che siano stati precedentemente dichiarati illeciti, ma non dovrebbero avere un obbligo generale di sorvegliare sulle informazioni che memorizzano né di ricercare attivamente fatti o circostanze che indichino la presenza di attività illecite, come previsto all’art. 15, paragrafo 1, della direttiva 2000/31/CE.
Al vuoto normativo nazionale si aggiunge l’attuale precarietà europea, dove tutto è oggettivamente in fieri, non senza conseguenze pratiche.
Il 21 dicembre 2020 è, infatti, entrata in vigore la c.d. direttiva e-privacy, direttiva 2002/58/CE del Parlamento europeo e del Consiglio, del 12 luglio 2002, che garantisce la tutela della vita privata, della riservatezza delle comunicazioni e dei dati personali nel settore delle comunicazioni elettroniche.
A partire da quella data i servizi di comunicazione interpersonale indipendenti dal numero rientrano nell’ambito di applicazione della direttiva e-privacy, e devono ottemperare all’obbligo previsto di rispettare la riservatezza delle comunicazioni, sicché le pratiche attuali volte a individuare adescamenti ed abusi sessuali sui minori online potrebbero interferire con determinate disposizioni della direttiva e-privacy che non contiene una base giuridica esplicita per il trattamento volontario dei dati a ciò relativi. Con l’ovvia conseguenza che i fornitori potranno continuare ad applicare tali misure solo nel caso in cui gli Stati membri adottino misure legislative giustificate in base ai motivi di cui all’articolo 15 di tale direttiva e che rispettino le prescrizioni stabilite da tale disposizione.
Ed è allo stato in discussione tra Parlamento europeo e Consiglio dell’Ue, in balìa di chi ritiene che la riservatezza debba essere prioritaria alla sicurezza, la successiva proposta di deroga temporanea presentata dalla Commissione Europea proprio per far fronte a tale vacatio e consentire l’utilizzo di misure restrittive nella fase transitoria. In tale difficile negoziato tra i co-legislatori europei, la ricerca di un equilibrio tra l’interesse alla tutela dei minori e quello alla protezione della privacy dei cittadini è divenuto il fulcro di una delle questioni politiche e legislative più delicate, in cui il Parlamento, grazie al lavoro che abbiamo svolto in Commissione per libertà civili, la giustizia e gli affari interni, ha deciso di privilegiare la tutela dei soggetti vulnerabili, i minori, facendone la propria priorità assoluta.
Tutto ciò con i tempi biblici dei vari legislatori che dietro l’alibi della necessaria armonizzazione giuridica e fattuale renderanno questo paese pronto all’era digitale non certo a breve, nonostante gli annunci trionfali.
Come quello della vicepresidente della Commissione Europea Margrethe Vestager, che lo scorso dicembre ha annunciato le proposte dell’esecutivo Ue per i servizi digitali (Digital Services Act) e il mercato digitale (Digital Market Act), definendole “Due pietre miliari per rendere l’Europa pronta all’era digitale”. L’obiettivo proclamato è garantire agli utenti della rete di poter accedere in maniera sicura al web quando navigheranno o acquisteranno e alle imprese di poter competere liberamente sul mercato digitale.
In altre parole, per la prima volta assistiamo alla conferma, messa nero su bianco, che i diritti fondamentali dei cittadini europei non sono sempre adeguatamente salvaguardati online.
Il Digital Service Act sarà uno dei più importanti atti legislativi di questa legislatura, e dovrebbe rafforzare il regime di responsabilità e sicurezza delle piattaforme internet, dei servizi e dei mercati on-line, inserendosi pertanto a pieno titolo come normativa fondamentale nell’attuale dibattito sulla sicurezza dei minori, e dei cittadini in generale, on line. I soggetti cui si riferisce, dalle società di telecomunicazioni che forniscono accesso alla rete alle piattaforme social, sono le società che forniscono servizi di intermediazione nell’ambito della trasmissione e della memorizzazione delle informazioni, non chiamate ad oggi a rispondere per le azioni contro la legge commesse dai loro utenti. La finalità del disegno normativo è quello di stabilire un regime di responsabilità chiaro per la gestione dei contenuti illegali. Oltre a essere destinatari di ordini e richieste di informazioni da parte delle autorità giudiziarie e amministrative degli Stati membri le società, comprese le very large platforms, potrebbero essere formalmente obbligate a rendere note le loro politiche di moderazione dei contenuti e pubblicare una volta l’anno una relazione sulle operazioni di moderazione. Il testo normativo della Commissione propone un concetto vasto di “contenuto illegale”, associato a informazioni, prodotti, servizi o attività che sono considerati illegali dalle leggi europee e dalle leggi nazionali, la cui rimozione deve essere seguita però da una spiegazione precisa e facilmente comprensibile della decisione indirizzata all’utente che lo ha pubblicato e deve comparire, priva dei riferimenti personali, in un database controllato direttamente dalla Commissione. Per le piattaforme che superano i 45 milioni di utenti al mese sono, inoltre, previste prescrizioni più restrittive sul sul funzionamento dell’algoritmo, dovendo rendere conto di come agisce per permettere agli utenti di decidere cosa vedere, oltre ad essere chiamati a redigere dei codici di condotta e protocolli d’emergenza da applicare in circostanze di grave crisi per la pubblica sicurezza e per la sanità pubblica da sottoporre direttamente al vaglio della Commissione. Sono anche previste sanzioni fino al 6 per cento del fatturato annuo per le piattaforme che non adempiono agli obblighi del regolamento.
Non sfuggirà al lettore la dirompente attualità del tema della rimozione arbitraria di contenuti online da parte delle piattaforme digitali, a seguito dei recenti casi di censura di importanti account social, a cominciare da quello dell’ex Presidente degli Stati Uniti, un tema che tra fake news, hate speech e libertà di parola è destinato ad occupare uno spazio centrale nel dibattito comunitario nei prossimi mesi.
Completa, poi, il quadro dei pacchetti normativi predisposti dalla Commissione per regolamentare la nuova era digitale, il Digital Market Act, la legge sul mercato digitale che, invece, si adopera per indebolire la posizione dominante dei gatekeepers, i “guardiani” del web che per dimensioni, numero di utenti e longevità giocano un ruolo di primo piano nel determinare i servizi offerti dalla rete. La normativa, in estrema sintesi, è pragmaticamente orientata a costruire un clima di maggiore concorrenza, prevedendo dei meccanismi di controllo per impedire pratiche commerciali scorrette.
Le due proposte verranno adesso sottoposte al vaglio dei co-legislatori europei, Parlamento e Consiglio, che avranno il compito di definire le proprie reciproche posizioni per giungere, poi, all’approvazione di un testo condiviso finale. Un lavoro complesso, che ci vedrà impegnati nei prossimi mesi in confronti, dibattiti e riflessioni, le cui determinazioni avranno importanti impatti sulla tutela dei diritti dei cittadini online, a cominciare dalla libertà di espressione, sino a tutte le forme di abuso.
L’Europa sarà pertanto pronta per affrontare l’era digitale. Lo sarà in futuro, frattanto quid juris?
(Annalisa Tardino, avvocato, è parlamentare europeo della Lega)