”Ci muoviamo in una società digitale che sarà sempre più piena di questi dati, si parla di capitalismo di sorveglianza, capitalismo estrattivo, le piattaforme multilivello, multinazionali, come Google, Apple, Amazon, hanno una massa di dati sterminata che noi nemmeno immaginiamo. Il problema è che l’algoritmo collega o può collegare tutto ciò che noi facciamo: la scelta di un oggetto, la manifestazione di un’emozione, la foto che poniamo. E come si è notato negli Stati Uniti, c’è la possibilità di interferire anche sul voto elettorale orientando gli elettori su una determinata posizione”. Così il garante per la Protezione dei dati personali Pasquale Stanzione, intervistato dal direttore dell’Adnkronos Gian Marco Chiocci, nel corso di ‘Link’s Talk’ alla Link Campus University di Roma.

”In Europa siamo un pochino più tutelati al riguardo, tanto è vero che due sentenze della Corte di Giustizia, hanno fatto sì che sia impedito che i nostri dati, quelli che concernono la nostra vita e i nostri rapporti con le piattaforme siano portati al di fuori dell’Europa, perché l’Europa ha uno standard di tutela molto superiore rispetto a quella degli Stati Uniti”, aggiunge.
”Inoltre ci sono due regolamenti, il Digital service act e Digital markets act, che stanno per essere approvati dal Parlamento europeo – prosegue Stanzione – In queste due bozze di regolamento si sviluppa una maggiore responsabilizzazione delle piattaforme in termini di accountability, vale a dire di garanzia di trasparenza e dalla possibilità di contestare, di opporsi, ci si oppone avendo un maggiore consapevolezza dei propri dati e di ciò che rappresentano, insomma il profilo è nel senso di rendere ciascuno di noi verso una autodeterminazione informativa, quindi una presa di coscienza e una scelta sì ma consapevole. Un po’ come il consenso informato”.
”L’intelligenza artificiale va bene come evoluzione soprattutto se la adoperiamo per prevenire o curare le malattie o per migliorare le condizioni di lavoro, togliere la fatica del labor alle persone, ora il problema non è tanto il robot che ci sostituisce ma come arrivare alla costruzione dell’algoritmo che comanda il robot. Non bastano più le famose tre leggi di Asimov. La società algoritmica rimane antropocentrica, con una direzione umana, se garantisce una trasparenza in questi algoritmi dell’intelligenza artificiale, ne motiva la possibilità di contestazione e dunque si riconosca la causa del codice sorgente, cioè chi è che dà l’impulso all’algoritmo e come esso viene spiegato”. Così ancora il garante per la Protezione dei dati personali Pasquale Stanzione
”In altri termini noi dobbiamo arrivare a una sorta di responsabilizzazione per coloro, ad esempio le piattaforme, che adoperano gli algoritmi in termini di accountability”, aggiunge Stanzione spiegando che ”in questa scia si muove anche la bozza di regolamento sull’intelligenza artificiale che in Europa si sta concludendo”. ”Speriamo di avere al più presto l’applicazione in termini regolamentari”, aggiunge.
”Serve una sorta di ampliamento e diffusione della cultura della privacy, vale a dire rendere partecipi e consapevoli i cittadini che la difesa della privacy non è un ostacolo, non è un impaccio, vale a dire una difficoltà da frapporre né alla pubblica amministrazione né ai privati ma è una sorta di accompagnamento a ciascuno di noi perché possiamo avere la consapevolezza dei nostri diritti e dei nostri dati”. Prosegue il garante per la Protezione dei dati personali,
”Anche quando ci iscriviamo a diverse piattaforme in maniera gratuita dobbiamo sapere che la controprestazione siamo noi che stiamo dando i nostri dati che verranno poi utilizzati – aggiunge – E allora una formazione in tal senso porterà ad attenuare fenomeni esecrabili come quello del revenge porn. Il problema che ci siamo posti dal punto di vista del garante è di prevenire e dire alla piattaforma, guarda che è arrivata una foto compromettente, bloccala, perché non vi è il mio consenso al riguardo”.
Sull’episodio dell’App Mitiga, spiega poi Stazione, ”una società privata che sottopone a una valutazione i dati delle persone, in particolare i dati sanitari, ovvero i più sensibili, come la vaccinazione o l’aver avuto il covid” abbiamo detto che ”deve intervenire lo Stato attraverso il green pass o attraverso operatori di polizia o persone autorizzate a chiedere quel famoso semaforo verde che ci consente domani magari di andare in discoteca o all’Olimpico a vedere le partite di calcio”.
”Gli atti giudiziari non devono essere portati alla conoscenza indiscriminata del pubblico, perché in questo modo facciamo una cosa che dal punto di vista giuridico non va proprio bene. Nel senso che nella nostra Costituzione è scritto il principio fondamentale della presunzione di innocenza. Viceversa quando gli atti giudiziari sono portati indebitamente all’attenzione dei mass media, noi andiamo nell’opposto ovvero nella presunzione di colpevolezza, cioè stiamo facendo un processo mediatico senza avere quelle garanzie di difesa che nel processo ci sono”.
”Inoltre – aggiunge – divulgando atti giudiziari che dovrebbero essere ancora confinati nel chiuso di una valutazione del giudice priviamo quest’ultimo della verginità di conoscenza che dovrebbe avere per garantirgli quella terzietà che gli riconosce il sistema ovvero di non essere condizionato dal processo mediatico”.
”Una delle principali missioni e funzioni del garante per la protezione dei dati personali è garantire la protezione dei dati di tutti ma in particolare delle persone vulnerabili e tra queste occupano una posizione evidentemente principale i minori. Ora noi abbiamo svolto già qualche iniziativa a riguardo, come il provvedimento che abbiamo preso nei confronti di Tic toc, bloccandolo provvisoriamente e inducendolo a garantire che la fruizione di questa piattaforma avvenga soprattutto da parte di soggetti che o abbiano 14 anni, il minimo richiesto dalla nostra normativa, oppure che qualora siano più piccoli siano accompagnati o presi per mano dai genitori in modo da evitare eventi luttuosi che ben ricordiamo”. Così Pasquale Stanzione, rispondendo sull’aumento dei rischi che arrivano dal web per i minori, aumentati durante la pandemia.”Dunque il problema è quello della verifica dell’età, che è difficile da individuare, perché assistiamo a false rappresentazioni e risposte – sottolinea – E allora il problema si sposta sul lato tecnico perché la verifica dell’età sia fatta opportunamente. Però devo aggiungere che qui c’è anche un invito a responsabilizzare i genitori, che accompagnino di più nella fruizione di questi strumenti i loro figli minori. ”Non siamo contrari a una sorta di comunità digitale ma il problema è di renderla più ospitale e meno carica di illeciti – chiarisce – Il discorso è di una paideia digitale, cioè di una formazione che porti ad avere la consapevolezza che chi sta facendo il famoso click sta dando l’autorizzazione a che un pezzo della propria libertà possa essere utilizzato in maniera illecita”.