Femminismo digitale e algoretica | Digital feminism and algorithm ethics

DOI: 10.5281/zenodo.14603619  |  PDF

Educazione Aperta 17 / 2024

Abstract: L’articolo, connettendosi alle recenti proposte della media education e alle questioni poste in luce dall’antropologia dei media, solleva la questione dei negoziati di significato che derivano dalla relazione, nella contemporaneità digitale, tra le persone, soggetti incarnati e caratterizzati dall’appartenenza di genere, e il mondo metaforico, simbolico e linguistico artificiale dell’algoritmo. La consapevolezza che i codici linguistici e semiotici dei dispositivi informatici non siano neutri, ma antropologicamente centrati, è una consapevolezza che appartiene al femminismo digitale, chiamato a decostruire posture artificiali e ineguali per una maggiore curvatura educativa nella contemporaneità relazionale e digitale. La riflessione intorno alla costruzione del mondo e alla sua interpretazione attraverso l’intelligenza artificiale scomoda la necessità di un’algoretica che sappia e possa ripristinare le condizioni di uguaglianza, parità ed equità di genere.

Parole chiave: femminismo digitale, algoritmo, algoretica, intelligenza artificiale, parità di genere, linguaggio.

Abstract: The article, connecting to recent proposals in the sector of media education and to questions highlighted by the anthropology of the media, raises the question of the negotiations of meaning that derive from the relationship, in the digital contemporaneity, between people, subjects embodied and characterized by belonging to a gender, and the metaphorical, symbolic and linguistic world of an artificial algorithm. The awareness that the linguistic and semiotic codes of IT devices are not neutral but anthropologically centered is an awareness that belongs to digital feminism, called to deconstruct artificial and unequal postures for a greater educational curvature in relational and digital contemporaneity. The reflection around the construction of the world and its interpretation through artificial intelligence highlights the need for an algorithm that knows and can restore the conditions of equality, parity and gender equity.

Keywords: digital feminism, algorithm, algorethics, artificial intelligence, gender equality, language.

Introduzione

L’orizzonte speculativo qui attraversato è la questione contemporanea ed etica della pervasività della tecnologia di rete nella nostra vita pratica e relazionale, nella consapevolezza, sempre più cogente, che l’algoritmo appare come testimone ontologico del nostro presente ed è in grado di automatizzare ogni nostro ragionamento proponendoci, attraverso le piattaforme digitali più note e frequentate, modalità di comunicazione e negoziati relazionali in grado di rendere immediatamente fruibili, quasi naturali, gli artefatti tecnici, ai quali abbiamo delegato la funzione di attribuire significato al mondo.

La questione appartiene all’educativo/inclusivo nella scuola perché inevitabilmente nella contemporaneità digitale la/il docente incontra e attraversa le diverse problematiche riconducibili all’intelligenza artificiale e alla convivenza negli ambienti digitali.

La problematica, inoltre, scomoda gli interrogativi intorno alla semantica di genere che non riguarda solo la linguistica e l’uso delle accortezze grammaticali che garantiscono la visibilità di ciò che è stato sinora invisibile come il femminile fagocitato dal maschile, bensì riguarda la postura del femminile nelle dinamiche del web. Si tratta infatti di una questione di cittadinanza digitale ed essa è eminentemente questione educativa e inclusiva nel momento in cui porge il tema cogente della complessità e problematicità della formazione che appartiene all’orizzonte dei concetti-chiave del sapere pedagogico il quale deve necessariamente fare i conti con una pista di ricerca che volge lo sguardo su nuove categorie in grado di prospettare, sia sul piano strettamente speculativo sia pratico-progettuale, la formazione umana.

In questo vasto orizzonte, infatti, si insinua la credenza condivisa secondo la quale il software sia in fondo un modo piacevole, immediato ed efficace di mappare cognitivamente il nostro mondo e di dispiegare la trama complessa di esso attraverso pratiche di assemblaggio, analisi dei discorsi, produzione di significato, immediatezza di risposte che rendono l’umano un elemento, tra i tanti, in un contesto di materialità tecnica e di mediazione sempre in connessione. Del resto ‘virtuale’ ha nel nome e nella postura etimologica la sua radice in virtualis, dunque virtuoso (Fabris, 2021, 93): la credenza condivisa, dunque, è che tutto ciò che è virtuale sia sostanzialmente buono. L’informatica del bene e del male è pertanto sbilanciata, nel mondo occidentale, da questa radice di consenso generale che riconosce come tutto ciò che viene dalla rete sia in fondo accettabile, tranne qualche deviazione come cyberbullismo, fake news, hate speech e anche la mortificazione dell’immagine del femminile. Soprattutto quest’ultima viene intesa come questione che, in fondo, va solo circoscritta a episodi di revenge-porn, ad esempio (Arsena, 2023). In questo scenario che intende il mondo e i nostri rapporti con esso non più teleologicamente garantiti ma piuttosto simili ad una rete animata dall’algoritmo, il fascino di quest’ultimo deriva proprio dalla combinazione di ciò che può essere visto e non visto, conosciuto e non conosciuto. Insomma, la separazione dell’interfaccia, che noi usiamo e vediamo e tocchiamo, dall’algoritmo, che non vediamo e non tocchiamo e che tuttavia dirige quell’interfaccia, ovvero la separazione del software (complesso, articolato, scritto in un linguaggio non udibile, non decrittabile) dall’hardware (sempre più piccolo, confortevole, maneggevole, riconoscibile e piacevole nell’uso), ripropone la potente metafora, studiata a lungo in antropologia culturale (Magli, 2007), di tutto ciò che sappiamo essere invisibile e che invece ha poi dirompenti effetti sul visibile. Si tratta della potente metafora, nota anche nel logos filosofico (Merleau-Ponty, 1964), dell’ideologia o della mano invisibile del mercato o della mano invisibile delle leggi incontrovertibili dello storicismo, ecc., e si tratta, andando più a fondo nella storia dell’umanità, della potente metafora, sempre viva e rinnovantesi, del mistero e dei sui adepti, del sacro e dei tabù del sacro con i suoi non-detti, la sua intangibilità, la sua potenza. Essa è la metafora dello sciamano che faceva segni incomprensibili e dei sacerdoti dotti che parlavano in latino (o in un improbabile latinorum, avrebbe detto Manzoni) dinanzi agli accoliti poco alfabetizzati che erano tenuti solo a fare atto di fede e a non porre domande. Oggi diremmo che la stessa metafora si ripropone nella polarizzazione tra ingegneri del software (parlanti una lingua/codice poco nota ai più che produce algoritmi, ovvero entità altrettanto poco note, nascoste, invisibili ma pervasive) e utenti (o user) che si limitano ad abitare un mondo di algoritmi senza entrare fondamentalmente mai in rapporto con codeste entità, senza chiedersi quale sia la formula che dirige il mondo di totem di artefatti tecnologici che adoperano e che attraversano e che mitizzano.

René Girard (1972) spiegava che all’accolito non era dato chiedere cosa ci fosse dietro al velo del sacro dove aveva accesso solo il sacerdote, pena la morte dell’accolito che non sarebbe sopravvissuto alla potenza inceneritrice sprigionata. Oggi questa problematica non si pone neppure perché l’utente non si chiede cosa ci sia al di là del velo del sacro informazionale dietro al quale ha accesso solo il sacerdote/ingegnere che produce algoritmi in formula che plasma il mondo e lo dirige e che, da questo punto di vista, assomiglia ad una vera e propria preghiera per i pochi eletti (Berger, 1992). In fondo, se nel Vangelo ci viene detto che la fede sposta le montagne, nella sacralità del mondo informazionale la fede nell’algoritmo è in grado di creare le montagne o di annullarle in una sola stringa alfanumerica.

Approcci automatici, media education e declinazione algoritmica al femminile

La questione della costruzione simbolica, pratica e mitopoietica algoritmica, oltre ad essere di pertinenza dell’antropologia dei media che può fornire un’ermeneutica della diversità socio-culturale e delle sue rappresentazioni mediatiche (Biscaldi & Matera, 2019) attraverso l’analisi dei processi di produzione mediatica o di significato nelle pratiche di ricezione nonché l'analisi delle sue rappresentazioni nei diversi contesti culturali (Carpenzano, D’Ambrosio, Latour, 2016), è anche questione eminentemente educativa, perché scomoda proprio il significato di educazione ai media o di educazione mediale e, su un orizzonte più vasto, quella che potremmo chiamare pedagogia dei media. Essa interpella precipuamente il senso della domanda e stimola la dimensione della curiositas ad addentrasi oltre la funzione di mero utente per esplorare la dinamica conoscitiva che si nasconde nel software e nei suoi artefatti. Questa curiositas da sempre è leva motivazionale al sapere (Freire, 2014): educazione ai media, oggi, nella scuola e nella formazione professionale, sia per docenti sia per discenti immersi nella contemporaneità digitale, non è, e non dovrebbe essere, soltanto tecnica del download, mera competenza della gestione del file pdf o powerpoint e successive modifiche e aggiornamenti. La curiosità, leva motivazionale alla conoscenza, dovrebbe condurre alla consapevolezza dell’ulteriorità, aprendo i sentieri nuovi della “pedagogia algoritmica”, così come è stata proposta recentemente alla comunità scientifica da Panciroli e Rivoltella (2023): essa è fortemente ispirata da una robusta cultura dell'informazione e da un'etica della responsabilità, che si traduce in comportamenti di cittadinanza (digitale) coerenti, consapevoli e democraticamente validi.

Il software, altrimenti detto codice, gioca con la necessità tutta computazionale di farsi invisibile (e rendere al contempo invisibili gli assi differenziali di potere nella società in cui opera) per rendersi visibile solo attraverso app e interfacce, inducendo a pensare che vi sia una necessità deterministica nel modo in cui il software e gli algoritmi dispiegano il mondo e lo interpretano attraverso i nostri dispositivi. Non è così: gli algoritmi sono semplici “forme” (alla maniera aristotelica si direbbe) che potrebbero essere cambiate e ripensate alla luce delle esigenze nuove e impellenti. Tra queste esigenze si impone la necessità di dare visibilità a chi è invisibile anche nel mondo analogico: sarebbe dunque oltremodo auspicabile un approccio concettuale simpoietico nella progettazione degli algoritmi, un approccio che tenga conto delle differenze sessuali e che possa costruire nuove specifiche informatiche in vista di una diversa progettazione di intelligenze artificiali che sempre più formano e performano il nostro mondo relazionale e comunicativo.

Nella nostra quotidianità tecnica e tecnologica abbiamo evidenza che i sistemi algoritmici funzionano: essi suggeriscono strade da percorrere, persone da conoscere, luoghi da visitare, film da vedere, oggetti da acquistare. In un percorso educativo orientato ad una robusta consapevolezza informatica che ci riporta all’obiettivo classico della media education (Rivoltella, 2001) la quale implica innanzitutto la promozione del pensiero critico, la comprensione della struttura, la curiosità intorno a “che cosa c’è dietro” un prodotto culturale o un messaggio e quali interessi lo accompagnano, dovremmo ricordarci, e come educatori dovremmo ricordare alla nuova generazione dei “nativi digitali” (Riva, 2014), che gli algoritmi funzionano nel mondo proprio perché progettati e assemblati da altri esseri umani dotati di volontà e la cui programmazione è sempre guidata da un’intrinseca e implicita progettualità.

L’algoritmo non è neutro ma riflette il pensiero e la postura di chi lo programma e lo istruisce: non è pertanto inconsueto avere algoritmi distorti a tal punto da generare discriminazioni. Media education significa dunque anche promozione, nelle dinamiche sempre nuove del web sociale, economico e relazionale, di questa operazione di meta-riflessione: sotto la cattedrale della logica simbolica e della teoria informatica c’è infatti la realtà etica, morale e legale percepita e vissuta da chi ha implementato l’algoritmo.

Se è vero, ed è vero, che nella nostra contemporaneità digitale in ogni scambio di natura economica o relazionale si interpone un’app frutto di una modellazione algoritmica, si spalanca allora la problematica innanzitutto pedagogica e poi etica e teoretica, prima che tecnica, dei cosiddetti “bias algoritmici” (Jean, 2021), ossia la problematica, non secondaria, del riversamento sul modello numerico dei pregiudizi cognitivi dei programmatori:

I sistemi automatizzati affermano di valutare tutti gli individui allo stesso modo, evitando così le discriminazioni. Possono garantire che alcuni datori di lavoro non basino più le assunzioni e i licenziamenti su sospetti, impressioni o pregiudizi. Ma sono gli ingegneri del software a costruire gli insiemi di dati estratti dai sistemi a punteggio; a definire i parametri delle analisi dei data mining; a creare i cluster, i collegamenti e gli alberi decisionali applicati; a generare i modelli predittivi applicati. I pregiudizi e i valori umani sono incorporati in ogni singola fase dello sviluppo. L’informatizzazione può semplicemente trasferire la discriminazione più a monte (Pasquale, 2015, 35).

Ebbene, il femminismo digitale ha a cuore la risoluzione o una possibile risposta proprio rispetto all’ipotesi, non remota, del bias algoritmico che si insinua nella trasmissione e nella postura del modello informazionale proposto e usato, contrastando un’implicita concezione discriminatoria dell’attuale produzione di software che riduce all’invisibilità e al silenzio chi invece ha voce ed è visibile.

Con l’espressione “femminismo digitale” si intende precipuamente una nuova consapevolezza e corrente di pensiero e di azione attiva che si colloca all'intersezione tra la tecnologia e la lotta per l'uguaglianza di genere. La sua attenzione si focalizza significativamente sull'eliminazione del pregiudizio algoritmico, un problema che emerge quando un contenuto ideologico distorto o discriminatorio già esistente nella società viene involontariamente incorporato nei modelli algoritmici, influenzando così la produzione e l'utilizzo del software. In un'era dove i dati guidano decisioni che vanno dall'assunzione di personale alle condizioni di credito, dall'ammissione universitaria all'assistenza sanitaria, il rischio di perpetuare e rinforzare stereotipi e discriminazioni è reale. Il femminismo digitale, quindi, non solo riconosce questo pericolo ma si impegna anche a proporre soluzioni per mitigarlo (Benjamin, 2019; Hicks, 2017; Noble, 2018; O'Neil, 2016; Wachter-Boettcher, 2017).

L’intelligenza artificiale è maschile?

I bias algoritmici si annidano in una modellizzazione del mondo digitale che non è una foresta vergine, neutra, incontaminata e necessariamente virtuosa, ma è un sistema creato e pensato e forgiato, nel quale possono insinuarsi distorsioni cognitive causate dal pregiudizio, dalle ideologie, da opinioni e comportamenti. In informatica il bias algoritmico corrisponde a un errore dovuto ad assunzioni errate nel processo di apprendimento automatico che, pare, sia difficile da eliminare di default (Jean, 2015), perché dietro di esso vi sono coloro che ne progettano il funzionamento: se razzismo, sessismo e classismo sono mali endemici e sistemici della nostra società, come è possibile pensare che queste ingiustizie non possano essere scritte e riaffermate nei codici algoritmici e quindi perpetrati? Non si creda che si tratti di una mera ipotesi: è già accaduto, ad esempio, che la multinazionale Amazon, per selezionare i curricula dei candidati più idonei, abbia operato attraverso un algoritmo addestrato sulle assunzioni degli ultimi dieci anni che erano state caratterizzate dalla collocazione lavorativa di una larga maggioranza di persone bianche, di sesso maschile e senza alcuna disabilità, con la conseguenza di reiterare il giudizio positivo nei confronti di queste categorie per la selezione del lavoro e con l’effetto di aumentare inevitabilmente pregiudizi, razzismi e discriminazione di genere (ibidem).

Altri esempi possono essere citati: molti sistemi di riconoscimento vocale spesso hanno difficoltà a riconoscere le voci femminili o le voci che non corrispondono a un certo range frequenziale; molti algoritmi usati per la pubblicità online perpetuano stereotipi di genere mostrando annunci per lavori, prodotti o servizi basati su preconcetti di genere. Ancora: molti algoritmi utilizzati nel campo medico per valutare i rischi per la salute o per formulare diagnosi sono influenzati da pregiudizi di genere nei dati storici; quasi tutte le piattaforme di streaming o e-commerce utilizzano algoritmi di raccomandazione che rafforzano gli stereotipi di genere, ecc. (ibidem).

Insomma, se partiamo dalla consapevolezza che le distinzioni di genere possono influenzare ed essere influenzate dalle tecnologie, è chiaro che progettare algoritmi in prospettiva di genere significa distribuire una nuova chiave ermeneutica per interpretare la realtà digitale che ci guida, ci sollecita, ci interpella ogni giorno (Vespignani, 2019), e significa intervenire ab origine.

Il femminismo digitale come nuova categoria dell’educativo nella dinamica contemporanea ha a cuore queste e altre molteplici questioni. La prima è senz’altro la questione della modellizzazione algoritmica e dunque la questione della decostruzione dell’approccio unidirezionale maschile nella costruzione dell’artefatto/software nella consapevolezza, ormai consolidata, che l’algoritmo viene scritto da una persona o da un pool di persone che nella maggior parte dei casi sono uomini. In questa direzione ha oltremodo valore incrementare la presenza delle donne a partire dall’ educazione, dalla formazione e dallo studio delle materie Stem (Lopez, 2023; Marone & Buccini, 2022; Ulivieri, 1995).

La questione algoritmica in prospettiva di genere prevede la contezza progettuale tecnico-scientifica per intervenire e monitorare, addestrando, ad esempio, l’algoritmo con un set di dati che contenga una distribuzione equa di voci maschili, femminili e non binarie, assicurando così che il sistema funzioni in modo paritetico per tutti gli utenti, valutando e modificando la progettazione affinché non si perpetuino stereotipi e discriminazioni.

E una consapevolezza progettuale distribuita lungo tutto l’arco delle presenze di genere (e non delle assenze…) potrebbe risolvere molti gap automatici poc’anzi descritti.

Accanto a questo, e in secondo luogo, il femminismo digitale, che non è mero promotore di quote rosa, si interroga sull’eticità dei processi di elaborazione degli algoritmi e sulla circostanza della loro implementazione. Questa postura dovrebbe garantire, oltre che una composizione eterogenea del pool informatico in prospettiva di parità di genere (donne, uomini e minoranze), anche una prospettiva trans-femminista, volta alla decostruzione dell'etero-normatività (Braidotti, 2019).

Non basta: interrogarsi sull’eticità dei processi di elaborazione significa scomodare la questione dell’algoretica, ovvero la questione delle implicazioni sociali ed etiche delle AI e degli algoritmi che rendono necessaria e urgente una governance puntuale intorno alle invisibili strutture che regolano sempre più il nostro mondo, proprio per evitare forme disumane di quella che si può definire una pericolosa algo-crazia (Benanti, 2018).

Ora, se l’algo-crazia altro non è che un crescente utilizzo degli algoritmi informatici e dell’intelligenza artificiale al fine di esercitare il controllo di qualsiasi aspetto nella vita quotidiana degli individui; se la rete digitale che regola il funzionamento delle nostre società è la formula ultima della tecnica che sorregge il potere oggi, tanto che Shoshana Zuboff (2023) ha battezzato questa nostra epoca “il capitalismo della sorveglianza”; se quando navighiamo, compriamo, guardiamo una serie tv, otteniamo senz’altro ciò che vogliamo, ma regaliamo molto di più, mettendoci a nudo e rendendo i dettagli della nostra vita trasparenti per il Grande Altro digitale; se dunque l’algo-crazia si impone come governo degli algoritmi in grado di influenzare i nostri comportamenti e le nostre scelte, realizzando così la previsione di Severino (2009) che parlava di una tecnica che finisce per apparire l'ultimo dio o l’ultimo tiranno, allora occorre che dinanzi a questo despota digitale, a questo Creonte digitale, si possa opporre l’Antigone della contemporaneità con tutte le sue sorelle in un coro unico che sappia riappropriarsi del gesto che fu proprio dell’eroina sofoclea la quale più di tutte simboleggia l'eterno perdurare del conflitto, evidentemente mai sopito, tra autorità maschile e diritto; tra leggi umane e/o dis-umane e leggi etiche, nel senso ampio del termine. E se la sovranità dell’algoritmo è anche patriarcale, diventa dunque necessario e urgente porre la questione in termini educativi.

L’algoretica implica infatti l’inclusione della componente umana, e dei suoi principi, nell’automatismo informatico degli algoritmi. Si tratta di un principio morale fondamentale, che vuole offrire all’umanità tutta la migliore possibilità di cognizione senza rendere invece la cognizione una funzione algoritmica sottratta all’umanità. 

Per un'intelligenza artificiale fondata sull'uguaglianza di genere

La convivenza tra umanità e macchine nella contemporaneità digitale richiede quindi la nuova, inedita categoria di algoretica (Benanti, 2018), attraverso la quale l’Intelligenza Artificiale possa essere pensata, costruita, implementata secondo condizioni più umane curvate su un approccio interdisciplinare capace di fondere i meccanismi dell’automazione con principi etici di comportamento, ad esempio nel supporto alle decisioni i cui risultati hanno effetti sulle persone: l’algoritmo che assume, l’algoritmo che licenzia, l’algoritmo che stabilisce le priorità, l’algoritmo che impone la sua decisionalità può avere effetti anche devastanti soprattutto sulle nuove generazioni, esposte più che mai alla relazionalità digitale (Aloisi & De Stefano, 2020).

Del resto, se il software antico è proprio il pensiero e se questo software ha richiesto, sin dalla prima riflessione filosofica, il gesto socratico di costruire intorno ad esso un intellettualismo etico attraverso il quale sono state scavate le fondamenta della civiltà, nella consapevolezza che “noi facciamo ciò che crediamo sia il bene, e se facciamo il male è per ignoranza” (Nussbaum, 1986), e se la riflessione etica sul software/pensiero si è arricchita nei secoli successivi della riflessione kantiana sulla morale e della riflessione di Hannah Arendt (1964) sulla responsabilità dell’azione morale, allora tanto più il software moderno dovrebbe essere necessariamente algoretico ed esige una riflessione etico/pratica accurata e non discriminatoria, almeno in quelli che sono i rischi nella gestione economica, ambientale e della salute e, si direbbe, della vita.

La postura del femminismo digitale va nella direzione di contribuire alla costruzione di algoritmi trasparenti, che tengano conto di criteri condivisi a priori: l’essenza della impostazione etica implica niente di più che l’inclusione della componente umana nell’automatismo informatico. La dinamica della trasparenza ha un versante squisitamente legato alla questione del gender gap ma in maniera inversamente proporzionale nel momento in cui proprio la dinamica della trasparenza trascina con sé un’analisi accurata del percorso compiuto dall’informatica per attirare a sé sempre più ampie masse di utilizzatori attraverso la produzione di software user-friendly, progettati con la specifica intenzionalità di mascherare la complessità del loro funzionamento. In questa direzione si è mossa la policy e il marketing informazionale, simile a un convincente messaggio pubblicitario, che tranquillizza reiterando sempre che “basta solo linkare, scaricare, accettare, ecc.”.

Questa modalità a-critica e meramente funzionale, nella sua immediata fruibilità, comporta consuetudini radicate e diffuse sulle quali raramente ci si interroga. L’immediatezza infatti fa dimenticare il carattere mediale dei media, il loro essere “tra” due o più interlocutori e conferisce una sorta di naturalità, di oggettività, di imparzialità, e non ultimo di sacralità, al messaggio che essi veicolano o alle relazioni che essi permettono di stabilire: se google map mi dice che devo fare quel percorso, non ho dubbi in proposito; se il social network mi evidenzia e mi raccomanda contatti di sconosciuti che sembrano avere i miei stessi interessi o svolgono la mia stessa professione, non sollevo questioni di merito...

D’altro canto, questa immediatezza ha il suo contraltare in quella che nei media studies è l’analisi del concetto di falsa-trasparenza (Haraway, 2019) che non ha fatto altro che spostare i confini della privacy: a fronte di un vasto continente inesplorato e inesplorabile (al pari di ogni antica metafisica popolata dal noumeno inconoscibile) dove sono riposti, tutelati e rigorosamente brevettati i meccanismi segreti delle black boxes algoritmiche all’interno delle quali i codici sono chiusi, non decrittabili e inconoscibili, la trasparenza si è imposta o riversata totalmente sulla fenomenologia digitale dell’umano e del femminile. Gli effetti della totale trasparenza imposta soltanto all’umano (e non alla macchina) nella convivenza digitale porta in luce e fa emergere tutti i pensieri, le emozioni, le intenzioni, le motivazioni, le opinioni, i bisogni, le preferenze politiche o alimentari, i desideri, gli umori, le inclinazioni, i dubbi, e li trasforma in big data che poi l’algoritmo processa, scambia, baratta e vende attraverso le innumerevoli tecniche dell’estrattivismo delle piattaforme digitali (Agrusti, 2023, 139), dove nulla è nascosto ma tutto è esposto in forma di merce.

Questa trasparenza dell’umano ha aperto la nuova frontiera del surplus comportamentale, laddove l’utente cerca di attrarre like e consensi, moneta contante nello scambio digitale, per puro bisogno di appartenenza, di gruppo e di approvazione.

L’homo digitalis?

In prospettiva femminile questo ha comportato un’inedita esposizione del corpo e dell’immagine della donna nel web, in un trionfo di fotogrammi curvati solo sulla volontà di compiacere il pubblico maschile e che si muovono in una direzione diametralmente opposta ad ogni antica e nuova intenzionalità femminista: sono passati più di quarant’anni da quando Simone de Beauvoir (una delle più grandi femministe del Novecento, teorica di quello che negli Stati Uniti è noto ancora come “pensiero francese del femminismo”, il più autentico e fondativo e che ha in quell’attributo “francese” un omaggio per sineddoche, la parte per il tutto, proprio alla francese de Beauvoir), scrisse al quotidiano "Le Monde" (4 maggio 1983) una lettera/articolo dal titolo Le donne, la pubblicità e l’odio in cui criticava aspramente i manifesti pubblicitari che tappezzavano tutta Parigi e che avevano come protagoniste donne seminude, in pose mortificanti (legate a un palo…) e che proponevano, con l’offerta visiva ed estetica del proprio corpo esposto, l’acquisto di un prodotto. Non si pensi che Simone de Beauvoir fosse diventata una talebana dell’immaginario sacro della modernità: la filosofa, con estrema lucidità, discuteva proprio di questa oggettivizzazione della donna che non aveva, secondo lei, alcun legame con il femminismo, la rivendicazione dei diritti, l’emancipazione del femminile.

La filosofa, discutendo dell’esposizione del corpo, interrogava precipuamente la questione del femminile:

E perché proprio le donne? Perché è delle donne che stiamo parlando; sono loro quelle che la pubblicità usa in maniera svilente per vendere i propri prodotti. Mai che capiti a un uomo. Tranne, in passato, se era nero […] Concentrarsi sulle immagini non è affatto uno sforzo vano. Anche i bambini le vedono e ne sono influenzati. Evitare che la pubblicità instilli in loro il disprezzo per le donne sarebbe già una notevole vittoria (de Beauvoir, 2021, 135-136).

Nella nostra relazionalità digitale caratterizzata da una nuova, perenne, spesso volontaria, esposizione del corpo femminile che viene scambiata per libertà e che invece obbedisce ai criteri sempre eterni dell’offerta allo sguardo maschile compiacente, giudicante, gratificante, anche questa diventa questione di femminismo digitale da proporre alle nuove generazioni influenzate da influencer e miti (spesso miti d’argilla) che si sostituiscono ai maestri (Zagrebelsky, 2019). Un femminismo digitale curvato sull’educativo potrebbe ricordare ancora oggi la lezione della rivendicazione autentica del diritto alla conoscenza, anche e soprattutto conoscenza dell’artefatto tecnico informatico e della sua progettazione, come valore non barattabile: del resto, agli inizi del Novecento, fu un’altra grande femminista, Virginia Woolf (1929), a forgiare il gesto della libertà femminile nell’aspirazione ad una stanza tutta per sé, dove sottrarsi allo sguardo pubblico per trovare riparo e studiare, leggere, conoscere e conoscere innanzitutto se stesse. Vaste programme che nella dimensione digitale avrebbe forse ancora, ma è solo un’ipotesi, ragione d’esistere.

Una stanza tutta per sé per non limitarsi a postare foto e video ammiccanti, ma per studiare coding e intervenire, con autorevolezza e dignità, nella costruzione del mondo algoritmico, per cambiarlo e migliorarlo con sapienza e intelligenza, per infrangere uno dei tanti muri di cristallo che si interpongono nel cammino e limitano l’autodeterminazione e la volontà. Così come è accaduto nella terra fisica, anche in quella digitale e nel web sociale evidentemente alla donna è stato cucito addosso giusto il ruolo di comparsa o di velina, edotta semmai di make-up, e non di persona capace, con la consapevolezza del sapere, di dare voce a chi non ha voce e di rendere visibile chi è invisibile nella grande metafora del mondo virtuale dove il potere trasformativo degli artefatti tecnologici è della stessa specie dell’immaginazione artistica, poetica, letteraria: è mondo obliquo delle cose pensate e create dall’essere umano.

È il mondo dell’evoluzione creatrice, usando l’espressione di Fabbri (2019).  Ed è pensabile ed è possibile dunque costruirlo e ricostruirlo secondo un ideale di giustizia che affermi il riconoscimento dell’alterità e della diversity.

Le disuguaglianze di oggi e di sempre possono infatti essere colmate a patto che ogni soggetto escluso compaia al banco delle trattative, così da mostrare il proprio volto ed essere riconosciuto. Finché viene proposto un solo ideale di habitat digitale esso sarà ingiusto: quando ve ne saranno diversi, e tutti con lo stesso potere contrattuale, solo allora si può parlare di precondizione alla giustizia.

Ebbene: il web è il luogo naturale della negoziazione. Se proviamo a rintracciare la rappresentanza e la rappresentanza di genere nella storia del software potremmo avere la consapevolezza che gli oggetti e le discipline tecniche che la puntellano non sono mai stati territori neutri bensì centrati antropologicamente, laddove antropos è sostanzialmente uomo, altro dalla donna.

In qualche modo si potrebbe dire che nella storia dell’informatica (Ceruzzi, 1998), così come nella storia tout-court, il maschile ha imposto la propria visione e la propria nomenclatura, sin nel linguaggio e nella declinazione di esso.

Nella ricostruzione della storia dell’umanità, infatti, siamo soliti scandire le ere preistoriche parlando del periodo dell’homo erectus, dell’homo habilis, dell’homo sapiens... a dispetto di due evidenze incontrovertibili. A dispetto del fatto che le donne componevano la metà di questa porzione di antica umanità e a dispetto del fatto che tra i più importanti e famosi ritrovamenti di ominidi nella storia della paleoantropologia c’è Lucy, i cui resti, indiscutibilmente femminili, sono stati fondamentali per conoscere meglio l’evoluzione della nostra specie (Johanson & Edey,1981).

In conclusione: anche il codice informatico è un linguaggio e dunque il femminismo digitale può proporre senz’altro una decostruzione delle parole affinché non si indichi, ancora una volta, solo la presenza, l’essenza e la prepotenza grammaticale dell’homo digitalis, ma può stavolta e altresì entrare in tempo nei gangli del linguaggio per trasformarlo nella postura archetipica, sintattica, teoretica e tecnico-pratica capace di porgere un nuovo significante.

Riferimenti bibliografici 

Agrusti F., Educazione e Intelligenza Artificiale, RomaTrePress, Roma 2023.

Aloisi A. e De Stefano V., Il tuo capo è un algoritmo, Laterza, Roma-Bari 2020.

Arendt H., Vita activa, Bompiani, Milano 1964.

Arsena A., Questioni di genere e consenso: a lezione di educazione civica, in “Pedagogia delle differenze. Bollettino della Fondazione Vito Fazio-Allmayer”, LI, 2, 2022, pp. 123-139.

Benanti P., Oracoli. Tra algoretica e algocrazia, Sossella, Bologna 2018.

Benjamin R., Race after Technology: Abolitionist Tools for the New Jim Code, Polity Press, Cambridge and Medford 2019.

Berger R., Il nuovo Golem: televisione e media tra simulacri e simulazione, Cortina, Milano 1992.

Biscaldi A. e Matera V., Antropologia dei social media, Carocci, Roma 2019.

Braidotti R., Materialismo radicale. Itinerari etici per cyborg e cattive ragazze, Meltemi, Milano 2019.

Carpenzano O., D’Ambrosio M. e Latour L., E-learning. Electric extendend embodied, ETS, Pisa 2016.

Ceruzzi P., A History of Modern Computing, MIT Press, Boston 1998.

De Beauvoir S., La femminilità, una trappola, L’Orma, Roma 2021.

Fabbri M., L’evoluzione creatrice, in “Pedagogia e Vita”, 2, 2019, pp. 36-48.

Fabris A., Etica per le tecnologie dell’informazione e della comunicazione, Carocci, Roma 2021.

Freire P., Pedagogia dell’autonomia, Gruppo Abele, Torino 2014.

Girard R., La violence et le sacré, Grasset, Paris 1972.

Haraway D., Le promesse dei mostri. Una politica rigeneratrice per l’alterità inappropriata, DeriveApprodi, Roma 2019.

Hicks M., Programmed inequality: How Britain discarded women technologists and lost its edge in computing, MIT press, Boston 2017.

Jean A., Nel paese degli algoritmi, Neri Pozza, Milano 2021.

Johanson D. e Edey M., Lucy, the Beginnings of Humankind, Simon and Schuster, New York 1981.

Lopez A.G., Il ruolo della riflessività nell’educazione alle STEM tra le ragazze, in “Educational Reflective Practices”, 1, 2023, pp. 70-81.

Magli, I., Il mulino di Ofelia. Uomini e Dei, Rizzoli, Milano 2007.

Marone F. e Buccini F., Nuove disuguaglianze nell’era contemporanea: le ragazze e le STEM, in “Education, Sciences e Society”, 1, 2022, pp. 170-184.

Merleau-Ponty M., Le visible et l’invisible, Paris: Gallimard, Paris 1964.

Noble S.U., Algorithms of oppression: How search engines reinforce racism, New York University Press, New York 2018.

Nussbaum M.C., The Fragility of Goodness: Luck and Ethics in Greek Tragedy and Philosophy, Cambridge University Press, Cambridge 2001.

Panciroli C. e Rivoltella P.C., Pedagogia algoritmica. Per una riflessione educativa sull’intelligenza artificiale, Scholé, Brescia 2023.

Pasquale F., The Black Box Society. The Secret Algorithms That Control Money and Information, Harward University Press, Cambridge Mass. 2015.

Riva G., Nativi digitali. Crescere e apprendere nel mondo dei nuovi media, Il Mulino, Bologna 2014.

Rivoltella P.C., Media education. Modelli, esperienze, profilo disciplinare, Carocci, Roma 2001.

Severino E., Il destino della tecnica, Milano, Rizzoli 2009.

Ulivieri S., Educare al femminile, ETS, Pisa 1995.

Vespignani A., L’algoritmo e l’oracolo. Come la scienza predice il futuro e ci aiuta a cambiarlo, Il Saggiatore, Milano 2019.

Wachter-Boettcher S., Technically wrong. Sexist apps, biased algorithms, and other threats of toxic tech, Norton & Co., New York 2017.

Woolf V., A Room of One’s Own, Hogarth Press, Richmond 1929.

Zagrebelsky G., Mai più senza maestri, Il Mulino, Bologna 2019.

Zuboff S., Il capitalismo della sorveglianza. Il futuro dell'umanità nell’era dei nuovi poteri, Luiss University Press, Roma 2023.

L’autrice

Angela Arsena è professoressa associata in Pedagogia generale presso l’Università telematica Pegaso. È stata ricercatrice all’Università degli studi di Genova. Dopo aver conseguito il dottorato presso l’Università pontificia Antonianum di Roma con Dario Antiseri, è stata assegnista di ricerca all’Università di Foggia. Ha insegnato all’Abu Dhabi University. Si occupa di ermeneutica digitale e di pedagogia dei media. Con Rubbettino ha pubblicato Verso la polis digitale (2023) e Il valore dell’ipotesi nella metodologia sperimentale (Premio Siped 2023).