IDENTITÀ PERSONALE E ALGORITMI: UNA QUESTIONE APERTA

Estratto di Simona Tiribelli, Identità personale e algoritmi, Carocci, Roma 2023.
Che cosa significa e implica essere persone nelle società algoritmiche contemporanee? Gli algoritmi che permeano gli ambienti iperconnessi odierni influiscono sui processi di formazione della nostra identità personale? Se sì, in che modo? Ci consentono maggiore libertà e possibilità di autorialità nella costruzione identitaria o le mettono a repentaglio?
Questi interrogativi sono diventati ormai ineludibili nelle nostre società dell’informazione digitale, ovvero in quelle società che non solo beneficiano del digitale, ma ne dipendono in misura crescente; società in cui le tecnologie digitali di informazione e comunicazione (d’ora in poi: ICT digitali) e le relative capacità di raccolta, processazione e trasmissione dei dati non sono più solo importanti, ma indispensabili per il mantenimento e lo sviluppo del benessere della società, del benessere personale e della prosperità globale (Floridi, 2014, P. 4); società dove l’applicazione e gli usi pervasivi delle ICT digitali hanno sfumato le distinzioni tra online e offline, reale e virtuale, pubblico e privato, creando ambienti ibridi o phygital, frutto dalla reciproca e incessante interazione, commistione e ibridazione tra cyber-spazio e spazio fisico; ambienti in cui la maggior parte delle persone vive iperconnessa o, utilizzando un noto neologismo, onlife (ivi, passim). Tali quesiti divengono cruciali in questi ambienti rinnovati, dove, da un lato, gli individui sembrano poter godere di elevati gradi di libertà e di opportunità inedite per divenire in modo più efficace e deliberato gli autori o i co-autori delle proprie identità e dei propri destini personali (Bakardjieva, Gaden, 2012; Floridi, 2014; Boyd, 2006), grazie a una maggiore disponibilità sia informazionale, sia relazionale (quest’ultima intesa come la possibilità di relazionarsi quasi con chiunque in qualsiasi momento); ma dove, dall’altro lato, tendono pure ad aumentare le preoccupazioni che riguardano i processi di formazione dell’identità personale, intesa come progetto personale aperto, almeno in parte frutto di scelte di cui possiamo dirci autori (Zuboff, 2019; Floridi, Taddeo, 2018; Frischmann, Selinger, 2018; Schüll, 2019; Koopman, 2019; de Vries, 2010; Nissenbaum, 2010).
Gran parte di queste preoccupazioni sulle nostre identità si sviluppa in risposta al progressivo processo di datificazione del reale (Van Dijck,2014), reso possibile dalla presenza pervasiva delle ICT digitali – dagli online service providers (OSP), come i motori di ricerca Internet (si pensi a Google, Bing, Yahoo, solo per citarne alcuni) e i social networking services (SNS),al vasto mondo dell’Internet of Things (IOT) – con capacità sempre più efficaci di raccogliere e processare dati (da qui: datificare) in modo incessante, invisibile, silenzioso e quasi ubiquo e dunque generare una quantità inedita di informazioni sugli individui, sulle loro connessioni e sulla popolazione nel suo insieme.
Queste preoccupazioni si sono ulteriormente acuite negli ultimi decenni, soprattutto a seguito dei progressi nella progettazione e nell’implementazione di sistemi di intelligenza artificiale (IA) e, in particolare, di ICT digitali algoritmiche – oggetto, in particolare, di questo lavoro. Con ICT algoritmiche ci riferiamo a quei sistemi digitali che incorporano modelli algoritmici non solo di tipo deterministico, ovvero progettati per raggiungere un certo obiettivo e/o svolgere un certo compito eseguendo una serie di istruzioni (o regole) di tipo causale, prestabilite ex ante dal programmatore; ma anche, e soprattutto, di tipo probabitistico, come gli algoritmi di apprendimento automatico (o machine learning: ML) e di apprendimento profondo (deep learning: DL). Si tratta, dunque, di quei sistemi che, dato un certo obiettivo, imparano come raggiungerlo in modo autonomo e/o semi-autonomo, senza seguire regole predefinite, bensì sviluppando percorsi (tentativi a errori), inferendo modelli e scoprendo correlazioni, spesso a prescindere dalla considerazione dei costi o delle conseguenze in termini di abuso di dati personali o, addirittura, di fenomeni di dataveillance (sorveglianza tramite dati a scopi predittivi) o di manipolazione informazionale (Gitelman, 2013; Beer, 2017). Tali tecnologie si caratterizzano così, oltre che per la capacità di raccogliere, analizzare ed elaborare (semanticizzare) enormi quantità di dati personali e non personali, aggregati e disaggregati, anche per la capacità di inferire e/o scoprire una conoscenza invisibile all’occhio umano, anche di tipo predittivo (cioè: su come le cose probabilmente saranno in futuro) e soprattutto in modo incrementale, migliorando progressivamente i relativi risultati sulla base di nuovi dati e delle nostre risposte ai loro stimoli.
In questo senso, il digitale ha reso possibile la diffusione di sistemi di IA e, nello specifico, di ITC algoritmiche – e, di conseguenza, la nostra progressiva e inevitabile esposizione a tali sistemi – con capacità di elaborazione dati, risoluzione problemi ed esecuzione di compiti con livelli di successo e, soprattutto, di efficienza senza precedenti e/o equivalenti umani; capacità che ne hanno consentito la concettualizzazione come riserva di capacità di agire, come «smart, (semi-)autonomous, interactive, and self learning agency “on tap”» (Floridi, Cowls, 2019, p. 2). Il potenziale dirompente di queste tecnologie, che fungono da nuove risorse di agency artificiale, ha reso così già superata la questione del se tali sistemi avranno un impatto o meno sulla realtà, sulle nostre società dell’informazione e su di noi come individui, aprendo invece un dibattito, oggi ancora in corso, su come beneficiare appieno delle opportunità che queste generano, minimizzandone al contempo i rischi.
A tal riguardo, il Digital Ethics Lab dell’Oxford Internet Institute, uno dei centri di eccellenza in materia, individua almeno quattro grandi opportunità generate da tali tecnologie, che concernono i temi al centro di questo volume (Floridi, 2022, p. 481). In primo luogo, tali sistemi potrebbero consentire una realizzazione più autonoma dei nostri sé, promuovendo l’esercizio del nostro diritto di autodeterminazione su chi vorremmo e potremmo diventare. Questa opportunità sorgerebbe dalla possibilità di delegare a questi sistemi compiti prima esclusivamente umani, creando cosi la possibilità di coltivare in modo più ampio, ricco e gratificante gli aspetti sociali, culturali e intellettuali che svolgono un ruolo importante nello sviluppo della nostra identità personale. In secondo luogo, come nuova risorsa di agire smart, questi sistemi potrebbero potenziare l’agire umano, migliorandone sia le capacità – si pensi, ad esempio, ai più recenti sistemi di supporto conversazionale (o chatbot+) come ChatGPT – sia le relative possibilità, ad esempio, tramite tecnologie inedite come i cosiddetti metaversi, che inaugurano modalità di svolgere compiti e/o consentano di vivere esperienze “aumentate”, virtuali e immersive completamente nuove. Di conseguenza, e in terzo luogo, tali sistemi hanno il potenziale di incrementare le nostre capacità non solo come individui singoli, ma anche come membri di gruppi e società, ovvero come collettivamente capaci di conseguire obiettivi nuovi e affrontare sfide complesse, come quelle che caratterizzano le società contemporanee. In tal senso, infine, questi sistemi potrebbero promuovere anche le relazioni, la coesione e la collaborazione sociali, favorendo le condizioni di interconnessione necessarie per cooperare in modo più efficace verso obiettivi comuni (Floridi et al., 2018).
Nonostante tali opportunità, il potenziale di tali sistemi, se utilizzato senza un orientamento critico, può facilmente comportare dei rischi ed è principalmente su questi che verte il dibattito critico e, nello specifico, si concentrano le preoccupazioni sempre più diffuse in materia. Come svelato da una serie di casi, dallo scandalo di Cambridge Analytica nelle elezioni americane del 2016 all’esperimento di contagio delle emozioni dell’allora Facebook (oggi Meta), il potenziale algoritmico predittivo, di norma basato su tecniche di profilazione delle identità degli individui (Hildebrandt,2019), quando in mano a privati orientati quasi esclusivamente alla massimizzazione del profitto, può essere facilmente sfruttato per innescare cambiamenti indesiderati nei comportamenti umani (Milano, Taddeo, Floridi, 2020; Frischmann, Selinger, 2018). I casi citati hanno mostrato come le ICT algoritmiche, oltre a generare opportunità, possano divenire strumenti potenti di persuasione e manipolazione, mezzi per influenzare in modo invisibile le scelte, le azioni e, con esse, le identità personali degli individui (Susser, Roessler, Nissenbaum, 2019; Burr, Cristianini, Ladyman, 2018; O’Neil, 2016; Kramer et al., 2014), trattando questi ultimi come meri prodotti di previsione e riducendoli ad aggregati di dati da vendere al migliore acquirente (Zuboff, 2019).
I rischi e i casi appena menzionati hanno così rievocato un tema classico, in veste parzialmente nuova, che emerge al centro del dibattito odierno sull’identità personale, sviluppato nell’ambito degli studi sul digitale: il tema della privacy, intesa come “il diritto a uno spazio in cui essere lasciati solf”(Warren, Brandeis, 1890) e, nello specifico, della privacy informazionale, intesa sia come il diritto di impedire ad altri l’accesso (libertà da interferenze) alle nostre informazioni personali, sia come il diritto alla tutela dell’identità personale attraverso il controllo (libertà di gestione) dei nostri dati personali (Heersmink et al., 2011; van den Hoven, 2008; Floridi, 2005, 2011) negli ambienti sempre più sorvegliati e profilati delle società iperconnesse (Hildebrandt, Koops, 2010; Tavani,2008; Solove, 2008; Zuboff,2019).
Nonostante l’identità personale sia infatti una questione centrale nel dibattito sopra citato, gli studi in materia tendono a elaborare prospettive prevalentemente incentrate sulla privacy informazionale e, di conseguenza, formulate attraverso strumenti sia concettuali, sia pratici (linee guida, regolamentazioni e misure tecniche) perlopiù incentrati sulla protezione delle informazioni e dei dati personali degli individui. In questo dibattito, l’identità personale emerge come di per sé compresa e concettualizzata prevalentemente, se non esclusivamente, in termini informazionali (Koopman, 2019; Floridi, 2005, 2011; Tavani, 2008; van den Hoven, 2008). L’idea alla base di questa concezione dominante di identità personale è che noi siamo le nostre informazioni, che i nostri dati e le nostre informazioni ci identificano, nel senso che sono parte integrante di noi, ovvero costituiscono le nostre identità personali, e che dunque la tutela del diritto al controllo delle nostre informazioni (privacy informazionale) e del flusso dei nostri dati personali (data protection) costituisce la risposta più adeguata alle sfide poste dal digitale e dagli algoritmi alla nostra identità personale.
Questa concezione ha stimolato un corpo importante di letteratura di impostazione prevalentemente giuridica e ha contribuito a collocare la questione dell’identità personale all’ interno della cornice teorica degli studi sulla privacy informazionalc, con alcune eccezioni in ambito filosofico, che, tuttavia, come accennato sopra, tendono a esaminare l’identità personale da una prospettiva quasi esclusivamente epistemologica (identità informazionale).
Tuttavia, è discutibile che la concezione informazionale dell’identità personale sia davvero sufficiente o da sola adeguata alla comprensione di un concetto particolarmente complesso come quello di identità personale e, soprattutto, delle sfide specificatamente etiche che le ICT algoritmiche sollevano rispetto ai processi di costruzione e di formazione identitaria negli ambienti contemporanei; è inoltre dubbio che le sfide poste dalle ICT algoritmiche all’identità personale possano ridursi solo a questioni di privacy informazionale e che siano affrontabili o risolvibili esclusivamente attraverso la tutela e il controllo dei dati personali degli individui.
Inoltre, come mostrano alcune recenti critiche nate in seno al dibattito sopra menzionato che situa l’identità personale nel contesto degli studi sulla privacy, il controllo e la tutela delle informazioni e dei dati degli individui risultano insufficienti se si vuole davvero essere seri nella tutela delle persone nelle nostre società dell’informazione digitale e degli algoritmi (Soe, Mai, 2022; Renieris, 2023). Tali prospettive critiche sono in questa sede di particolare rilievo, nella misura in cui pongono enfasi sulla necessità di recuperare una riflessione etica sull’identità personale, che riconosca l’importanza di concetti come la libertà di scelta e l’autonomia morale; elementi che, pur rimanendo inesplorati, sono considerati necessari in ordine alla comprensione e alla tutela adeguate dell’identità negli ambienti iperconnessi. Queste prospettive, infatti, da un lato, sottolineano la necessità di riformulare il diritto alla privacy come il diritto alla costruzione della nostra identità personale (Soe, Mai, 2022; Agre, 2001), chiedendo di ripensare il diritto al controllo sui nostri dati personali come il diritto di influenzare o controllare la costruzione della nostra identità, sottolineando uno scarto tra identità e dati.
Più nello specifico, esse affermano la necessità di riformulare il diritto alla privacy come il diritto all’identità personale, ovvero alla libertà di costruzione (o co-costruzione) e sviluppo della nostra identità personale (Soe, Mai, 2022) al fine di proteggerci come persone e, dunque, tutelare la nostra soggettività (Hildebrandr, 20199). Dall’altro lato, esse invitano anche a considerare che c’è qualcosa di più profondo in gioco dei nostri dati e delle nostre informazioni personali nelle sfide che le ICT algoritmiche sollevano rispetto atte nostre identità personali: apertura delle nostre identità, la liberta e l’autonomia nell’esercizio delle nostre scelte che ne sono a fondamento (Floridi, Taddeo, 2018; Hildebrandt, 2019; Soe,Mai,2022).
Tuttavia, manca a tutt’oggi un’indagine propriamente etica che si confronti criticamente con il tema dell’identità personale nei contesti digitalizzati e algoritmici contemporanei, in altre parole, che indaghi il possibile impatto delle ICT algoritmiche sull’identità degli individui con un focus che vada oltre i dati e le informazioni che questi generano, esplorando ciò che vi è di più profondo davvero in gioco: l’apertura del processo di formazione identitaria, la possibilità di essere gli autori (o per lo meno i coautori) delle nostre identità personali; in sintesi, la libertà di costruzione della nostra identità personale, la nostra libertà di sviluppo come persone uniche.
Questo volume intende contribuire a colmare tale lacuna e, indagando il tema dell’identità personale negli ambienti iperconnessi attraverso le lenti della filosofia morale, mira a proporre una concezione più ampia e articolata di identità personale, che non si esaurisca in una sua ricomprensione in termini esclusivamente informazionali, ma ne recuperi anche le dimensioni costitutive propriamente etiche.
IDENTITÀ PERSONALE E ALGORITMI