Il mito della neutralità tecnologica: perché il codice non è mai imparziale
L’idea che la tecnologia sia “oggettiva” è una delle illusioni più pericolose del nostro tempo
Per molto tempo abbiamo considerato la tecnologia come qualcosa di neutro.
Uno strumento. Un mezzo. Un supporto.
Un algoritmo calcola, una piattaforma organizza, un sistema automatizza.
Ma questa visione, apparentemente intuitiva, è sempre più messa in discussione dalla ricerca scientifica.
Perché dietro ogni tecnologia ci sono scelte.
E le scelte, per definizione, non sono mai neutre.
Il codice come sistema di valori
Una delle intuizioni più rilevanti in questo campo arriva da Langdon Winner, che già nel 1980 si chiedeva: “Do artifacts have politics?”.
La risposta è sì.
Secondo Winner, le tecnologie non sono semplici strumenti, ma incorporano visioni del mondo, priorità e rapporti di potere. Alcuni sistemi tecnici, infatti, non solo riflettono decisioni politiche, ma contribuiscono a stabilizzarle nel tempo.
A questa prospettiva si affianca quella di Bruno Latour, uno dei principali esponenti della sociologia della scienza, secondo cui gli oggetti tecnici sono attori all’interno delle reti sociali e partecipano attivamente alla costruzione della realtà (Actor-Network Theory).
Tradotto in termini contemporanei:
il codice non descrive semplicemente il mondo, ma lo struttura.
Algoritmi e decisioni: una neutralità impossibile
Gli algoritmi operano su dati e modelli matematici. Questo li rende, in apparenza, oggettivi.
Ma numerosi studi dimostrano il contrario.
Nel campo dell’AlgorithmicBias, è ormai consolidato che i sistemi automatizzati possano riflettere e amplificare disuguaglianze esistenti.
Il lavoro di Cathy O’Neil (Weapons of Math Destruction, 2016) evidenzia come modelli algoritmici utilizzati in ambiti come credito, lavoro e istruzione possano produrre effetti sistematicamente distorsivi.
Ancora più evidente è il caso degli studi di Joy Buolamwini e TimnitGebru (2018), che hanno dimostrato come i sistemi di riconoscimento facciale presentino tassi di errore significativamente più elevati per alcune categorie demografiche.
Il problema non è tecnico, ma strutturale:
gli algoritmi apprendono dai dati, e i dati riflettono la società.
La selezione invisibile: cosa vediamo (e cosa no)
Uno degli aspetti più rilevanti riguarda la capacità degli algoritmi di selezionare informazioni.
Secondo Tarleton Gillespie, le piattaforme digitali agiscono come “custodi della visibilità”, decidendo cosa emerge e cosa resta nascosto (The Relevance of Algorithms, 2014).
Questa selezione avviene su larga scala:
- contenuti social
- risultati di ricerca
- notizie
- prodotti
Il risultato è una realtà filtrata.
E il punto critico è che questo filtro è invisibile.
Il ruolo dei dati: materia prima non neutrale
I dati sono spesso considerati oggettivi. In realtà, sono il risultato di processi di raccolta, selezione e interpretazione.
Secondo RobKitchin, i dati sono “costruiti” e non semplicemente “raccolti” (The Data Revolution, 2014).
Questo significa che:
- ciò che viene misurato è una scelta
- ciò che viene escluso è una scelta
- il modo in cui viene interpretato è una scelta
E queste scelte influenzano direttamente i risultati degli algoritmi.
Codice e conseguenze
Nel contesto di questo filone editoriale, il punto centrale è proprio questo:
ogni riga di codice produce conseguenze.
Quando un sistema decide:
- cosa mostrarti
- cosa suggerirti
- cosa considerare rilevante
sta modellando il tuo spazio decisionale.
Non in modo esplicito, ma strutturale.
Il rischio più grande: credere nella neutralità
Il vero problema non è che la tecnologia influenzi la società.
Il problema è credere che non lo faccia.
Questa convinzione genera un effetto pericoloso:
- riduce il senso critico
- rende invisibili le responsabilità
- limita il dibattito pubblico
Come evidenziato anche nel dibattito europeo sull’AI Act promosso dall’Unione Europea, la trasparenza e la responsabilità sono oggi elementi centrali nello sviluppo dell’intelligenza artificiale.
Verso una consapevolezza tecnologica
Superare il mito della neutralità tecnologica non significa rifiutare l’innovazione.
Significa comprenderla.
Significa riconoscere che:
- il codice è progettato
- gli algoritmi riflettono scelte
- le tecnologie hanno impatti sociali
E che, quindi, devono essere:
- analizzate
- discusse
- regolate
Conclusione: il codice è una scelta, non un destino
La tecnologia non è neutrale. Non lo è mai stata.
È il risultato di decisioni umane, inserite in contesti economici, sociali e politici.
Riconoscerlo non è un limite.
È il primo passo per governarla.
Perché il codice non è solo ciò che fa funzionare il mondo digitale.
È ciò che, sempre più spesso, contribuisce a definirlo.



