Accesso, controllo, giustizia: le sfide dei diritti umani nella società digitale

Barbara D’Ippolito
Dottore di Ricerca in Cooperazione Internazionale e Sviluppo Sostenibile.

Nell’attuale fase storica, segnata dalla pervasività delle tecnologie digitali, l’intersezione tra diritti umani, potere economico e governance tecnologica impone una riflessione profonda e urgente. La digitalizzazione ha ampliato l’accesso all’informazione, alla partecipazione politica e alla libertà di espressione. Tuttavia, parallelamente, ha rafforzato forme sistemiche di esclusione, sorveglianza e controllo, che colpiscono in modo sproporzionato le soggettività già marginalizzate secondo linee intersezionali di genere, provenienza geografica, classe, disabilità.

I principi sanciti dalla Dichiarazione Universale dei Diritti Umani del 1948 – universalità, indivisibilità, interdipendenza – sono oggi messi in discussione da molteplici tensioni: da una parte, interpretazioni culturali divergenti; dall’altra, l’ascesa di interessi economici globali e nuove forme di governance non statale, esercitate in gran parte da attori privati del settore tecnologico. Ne risultano minacciati in particolare i diritti delle donne e delle persone LGBTQIA+, soggetti a un’offensiva ideologica e normativa che colpisce diritti sessuali, libertà riproduttive, espressione e partecipazione politica. Si tratta di una crisi dell’universalismo che si innesta su processi di ricolonizzazione simbolica e disuguaglianza materiale.

Nel dibattito internazionale si è affermato il principio secondo cui “gli stessi diritti che valgono offline devono essere garantiti anche online”. Tale approccio, noto come “equivalenza normativa”, ha avuto il merito di affermare una continuità formale tra dimensione fisica e digitale dei diritti. Tuttavia, di fronte alla deterritorializzazione delle reti, all’opacità algoritmica e alla concentrazione del potere nelle mani delle piattaforme, questo paradigma si rivela sempre più inadeguato.

Una parte crescente della letteratura propone una concezione genealogica e multilivello dei diritti digitali, articolata su tre generazioni:

  • Prima generazione: adattamento dei diritti esistenti (privacy, libertà di espressione, partecipazione) al contesto digitale;
  • Seconda generazione: emergenza di nuovi diritti (accesso significativo a Internet, diritto a non essere sottoposti a decisioni automatizzate);
  • Terza generazione: riconoscimento di nuovi soggetti giuridici (es. identità digitali) e attribuzione di obblighi vincolanti agli attori privati, in particolare alle piattaforme, divenute veri e propri legislatori digitali de facto.

Questa prospettiva apre la strada a un nuovo costituzionalismo digitale, capace di superare la logica dell’estensione normativa e di rispondere alle sfide poste dall’ecologia tecnologica contemporanea.

All’interno di questo quadro, una prospettiva femminista e intersezionale appare essenziale per articolare una risposta teorica e politica coerente. Essa si struttura su tre assi fondamentali:

  • Accesso significativo: non basta garantire la mera connettività; occorre promuovere un accesso trasformativo, universale e non discriminatorio, fondato sulla neutralità della rete, sull’equità infrastrutturale e sull’autonomia digitale. L’accesso deve essere concepito come bene comune, non subordinato alle logiche di profitto.
  • Epistemologie plurali: le attuali architetture della conoscenza online tendono a riprodurre gerarchie patriarcali e coloniali. È necessario valorizzare saperi situati, linguaggi minoritari, pratiche comunitarie e conoscenze indigene, decostruendo il monopolio epistemico delle piattaforme dominanti.
  • Giustizia redistributiva: l’economia dei dati si fonda sull’estrazione di valore dal lavoro non retribuito e sulla monetizzazione delle informazioni personali, con un impatto sproporzionato sulle donne e sui soggetti razzializzati. Serve una visione economica del digitale orientata all’autonomia, alla sicurezza sociale e alla giustizia redistributiva.

Le grandi piattaforme digitali non sono semplici intermediari, ma esercitano un potere regolativo di natura quasi sovrana. Definiscono le condizioni di accesso, espressione, visibilità e privacy, spesso in contrasto con gli standard internazionali sui diritti umani. La narrazione dominante, che le dipinge come difensori della libertà contro lo Stato, maschera il ruolo attivo di queste imprese nell’elaborazione di politiche aziendali che comprimono i diritti fondamentali.

La globalizzazione e la privatizzazione di funzioni pubbliche impongono l’adozione urgente di un quadro giuridico che attribuisca obblighi chiari e cogenti agli attori privati. La protezione dei diritti non può più dipendere da una logica volontaristica o di autoregolazione.

In questo scenario, emerge una forma inedita di accumulazione: quella che Shoshana Zuboff (2019) ha definito capitalismo della sorveglianza. Essa si fonda sulla separazione tra le persone e i loro dati personali, poi trasformati in merce analitica da parte delle piattaforme. Questo processo non solo compromette la privacy, ma configura una vera e propria ingiustizia di maldistribuzione, secondo la teoria della giustizia di Nancy Fraser (2008). A partire da tale ingiustizia originaria, si innescano ulteriori forme di oppressione:

  • Misrecognition socioculturale: le categorizzazioni algoritmiche distorcono le identità individuali, rafforzano stereotipi e amplificano disuguaglianze.
  • Misperception politica: l'opacità delle tecnologie rende i soggetti democraticamente invisibili, privati degli strumenti per contestare l’uso distorto dei propri dati.

In questo contesto, la dataveillance – ovvero la sorveglianza fondata sui dati – rappresenta una minaccia sistemica alla giustizia sociale. È necessario sviluppare strumenti teorici e normativi per trasformare i dati da fattore di oppressione a leva di emancipazione e parità.

 

Tecnologie biometriche e controllo delle frontiere: l’ingiustizia inscritta nei corpi

Uno dei terreni in cui l’intersezione tra tecnologia, potere e diritti umani si rivela in modo più drammatico è quello della gestione dei flussi migratori. L’Unione Europea e numerosi stati membri hanno progressivamente digitalizzato il controllo delle loro frontiere, implementando sistemi biometrici avanzati – come la scansione dell’iride, il riconoscimento facciale e la raccolta delle impronte digitali – per identificare, tracciare e categorizzare i corpi delle persone on the move.

Strumenti come Eurodac, operativo dal 2003, rappresentano un caso paradigmatico di frontiere digitali esternalizzate, in cui la sovranità statale non si limita più alla dimensione territoriale, ma si esercita attraverso la sorveglianza algoritmica di identità biometriche. Con l’approvazione del nuovo Patto dell’Unione Europea su migrazione e asilo, l’uso del controllo biometrico sulle persone on the move viene esteso e sistematizzato. Il sistema Eurodac, potenziato e reso centrale nel nuovo assetto, si configura così come una sofisticata infrastruttura tecnologica di governo dei corpi, finalizzata al tracciamento, alla schedatura e al controllo capillare dei loro spostamenti.

In questo nuovo quadro normativo, i dati biometrici diventano strumenti di selezione e disciplinamento, trasformando il database in un potente dispositivo di controllo e esclusione. Si tratta, in effetti, di un salto qualitativo verso un regime di sorveglianza automatizzata, in cui tecnologie altamente invasive vengono legittimate come risposte “tecniche” a problematiche politiche complesse. L’obiettivo non dichiarato ma evidente è quello di rafforzare l’infrastruttura digitale della deterrenza, inscrivendo nei codici e negli algoritmi la logica della chiusura, della discriminazione e della deportabilità.

La tutela dei diritti umani nella società digitale richiede un ripensamento profondo dei fondamenti giuridici e politici che regolano la convivenza nello spazio online. Non è più sufficiente trasporre i diritti elaborati nel mondo analogico: occorre riconoscere la specificità degli ambienti digitali, imporre obblighi concreti agli attori privati che vi esercitano potere e orientare l’innovazione tecnologica verso obiettivi di giustizia sociale e inclusione.

È necessario costruire un nuovo equilibrio normativo e politico che promuova un accesso trasformativo alla rete, inteso non solo come connettività tecnica, ma come condizione di autonomia, neutralità e partecipazione equa. Allo stesso tempo, è urgente valorizzare saperi plurali e decentrati, capaci di rompere con l’egemonia delle epistemologie dominanti e restituire voce alle culture e alle esperienze storicamente marginalizzate. Infine, va affrontata la crescente concentrazione del potere informazionale attraverso meccanismi redistributivi che garantiscano una partecipazione più equa alla produzione e al governo dei dati.

Solo attraverso un approccio intersezionale, critico e multilivello sarà possibile costruire un ecosistema digitale che ponga al centro la dignità umana, la giustizia e la libertà sostanziale. In gioco non vi è solo l’assetto del cyberspazio, ma la stessa possibilità di abitare la modernità tecnologica in termini democratici e egualitari.