The Black Box Problem: governare la “scatola nera” dell’AI o esserne governati?

Jan 16 / Emanuele Ciantò
Introduzione

Sentiamo sempre più spesso parlare di algoritmi e di intelligenza artificiale. Ormai non ce ne accorgiamo nemmeno, ma le nostre vite sono pervase da strumenti che si basano sull’AI. Dai navigatori per le auto, ai cellulari, ai sistemi di sicurezza, e così via. Si tratta di un fenomeno che si è pian piano conquistato un posto di rilievo nella nostra società. E bisogna riconoscere che l’intelligenza artificiale è in effetti capace di semplificare, e non poco, la nostra vita.
Tuttavia, ci sono alcuni aspetti che rendono poco brillante la questione. Infatti, mentre da un lato una sempre maggiore fetta della nostra società poggia su algoritmi e reti neurali, la trasparenza di questi sistemi sta diminuendo. Diversi esperti hanno infatti puntato il dito contro il problema dell’opacità degli algoritmi di machine learning e delle reti neurali artificiali. Gli stessi programmatori, spesso, non riescono a comprendere fino in fondo perché un algoritmo abbia preso una determinata decisione piuttosto che un’altra.
Cerchiamo quindi di definire al meglio questo problema, così da poterne individuare (almeno alcune) cause e (almeno alcune) soluzioni disponibili.


Analisi del problema

Possiamo identificare, seguendo Burrell (2016), tre diverse tipologie di opacità negli algoritmi di machine learning:

1. Opacità istituzionale: l’opacità può ricondursi a una volontà di auto-protezione delle aziende nei confronti dei propri algoritmi, che vogliono conservare il proprio vantaggio competitivo. Si tratta, dunque, di una strategia concorrenziale come le altre.

2. Opacità tecnica: la maggior parte di noi non possiede le conoscenze e competenze necessarie per progettare e regolare un algoritmo di machine learning. Si tratta di un’abilità esclusiva di pochi “tecnici”.

3. Opacità epistemica o essenziale: la complessità delle reti neurali rende inevitabile un’incoerenza tra il processo logico-matematico e quello interpretativo o semantico. Non riusciamo mai a spiegare esaustivamente il lato semantico di una rete neurale. 

Proviamo adesso ad immaginare e indagare le possibili cause del fenomeno dell’opacità di tipo epistemico che ha luogo negli algoritmi di machine learning:

1. Dimensione dei dataset: maggiore sarà il dataset di partenza, maggiore sarà la complessità della rete e dei processi che essa andrà a svolgere. Di conseguenza, maggiore sarà il dataset, minore sarà la trasparenza garantita per il processo in questione. È in gioco, dunque, un rapporto inversamente proporzionale tra la dimensione del dataset di addestramento e la trasparenza del processo stesso.

2. Qualità dei dataset: gli algoritmi non sono mai neutrali, perché non operano mai su dati neutrali, ma su input frutto del lavoro umano. Gli input sono somministrati alla rete attraverso il filtro di un’etichettatura umana, ossia migliaia di operatori umani collaborano ad associare ad ogni input della rete una descrizione, ed è su questa descrizione che la rete andrà a lavorare (non esistono, insomma, “raw data”).

3. Problema semantico intrinseco: c’è un gap dimensionale tra gli strumenti del linguaggio naturale e quelli dei processi matematici del machine learning, che ci rende incapaci di disporre delle giuste misure semantiche per interpretare (nel linguaggio naturale) e quindi comprendere tali processi fino in fondo. Si tratta di un problema intrinseco alla natura stessa del machine learning. Questo sembra essere il problema più arduo da risolvere.


Soluzioni, prospettive e scenari futuri

Quali soluzioni possiamo suggerire a questi problemi?
Innanzitutto, ci sembra rilevante far notare che due delle tre cause che abbiamo identificato riguardano la natura e struttura dei dataset di addestramento. Dobbiamo dunque agire su di essi: è fondamentale monitorare costantemente il processo di programmazione delle reti neurali artificiali, e una maggiore attenzione deve essere rivolta in particolare al lavoro di etichettatura. Esso è infatti svolto, spesso, da operatori con scarsa formazione culturale, che accettano remunerazioni più che discutibili che le aziende di programmazione degli algoritmi forniscono.
Di conseguenza, come mostrato, la rete neurale artificiale andrà a lavorare su etichette che risentiranno, giocoforza, della cultura e della formazione di operatori umani. Migliorare la natura dei dataset in fase di addestramento è quindi il primo passo, obbligato, per un’AI più trasparente ed efficiente.
Parallelamente, sarà necessario adottare approcci combinati, ossia sarà fondamentale che, durante la fase di programmazione, non lavorino solo ingegneri informatici (i cosiddetti “tecnici”, diciamo), bensì anche e soprattutto studiosi e ricercatori con background e formazioni diverse (mi riferisco in particolare agli umanisti, quindi psicologi, filosofi, e così via), per riuscire ad approcciare i soliti problemi con sguardi nuovi e alternativi. L’interdisciplinarietà sarà la chiave di volta per una governance trasparente e rivoluzionaria dell’AI.
Un terzo, importante passo è costituito infine dalla politica e dalle democrazie. C’è bisogno che la politica intervenga su un fenomeno così delicato come l’intelligenza artificiale; in altre parole, c’è bisogno di governare questi processi per evitare di esserne governati. In questa direzione sembra stia andando l’Unione europea con l'Artificial Intelligence Act del 2023, che regolamenta le intelligenze artificiali adottando una prospettiva basata su diversi livelli di rischio.
Dal nostro punto di vista, questo ci sembra il primo passo verso una rivoluzione nel rapporto tra esseri umani e tecnologia.



Riferimenti:

Burrell, Jenna 2016: How the machine “thinks”: Understanding opacity in machine learning algorithms, in Big Data e Society January – June 2016: 1 – 12.

Creel, Kathleen A. 2020: Transparency in Complex Computational Systems, in Philosophy of Science 2020 (87): 568 – 589.

Commissione europea: Artificial Intelligence Act, 2023: https://www.europarl.europa.eu/RegData/etudes/BRIE/2021/698792/EPRS_BRI(2021)698792_EN.pdf.
Creato con