L’AI non ha bias: il pregiudizio è nostro, e l’AI lo rende solo visibile
Ogni volta che un sistema AI produce un risultato discriminatorio, il coro è unanime: “L’AI ha un bias!”. Come se il bias fosse un difetto dell’algoritmo. Come se, senza l’AI, il mondo fosse equo. La verità è più scomoda: l’AI non ha creato nessun bias. Ha solo reso visibile quello che abbiamo sempre avuto.
Lo specchio che non ci piace
Un sistema di riconoscimento facciale funziona peggio sui volti neri? Il bias non è nell’algoritmo. È nel dataset, che riflette decenni di sottorappresentazione nelle banche dati fotografiche. Un sistema di scoring creditizio penalizza le donne? Il bias non è nel modello. È nella storia del credito, dove le donne hanno avuto accesso ai conti correnti solo dagli anni ’70.
L’AI non inventa discriminazioni. Le eredita. La differenza è che prima erano invisibili, nascoste nell’intuito di un impiegato di banca o nel “fiuto” di un recruiter. Ora sono scritte in un log, misurabili e correggibili.
Il paradosso della trasparenza
Ed ecco il paradosso: l’AI viene criticata perché rende il bias visibile. Prima dell’AI, nessuno misurava il tasso di rifiuto dei mutui per etnia in modo sistematico. Nessuno analizzava i pattern di assunzione per genere su milioni di casi. L’AI ha reso possibile questa analisi, e il risultato ci ha inorridito. Ma l’orrore dovrebbe essere diretto al bias sottostante, non allo strumento che lo rivela.
“Dare la colpa all’AI per il bias nei dati è come dare la colpa al termometro per la febbre. Il termometro non ti ha fatto ammalare. Ti ha solo detto che lo sei.” — Timnit Gebru, ricercatrice AI
La fazione “colpa dell’AI”
Per molti, è più facile incolpare la tecnologia che affrontare i problemi strutturali della società. “Vietiamo l’AI nel recruiting” è uno slogan semplice. “Ricostruiamo un mercato del lavoro equo su cui addestrare modelli equi” è un programma politico che richiede decenni. La pigrizia intellettuale sceglie sempre lo slogan.
La fazione “colpa nostra”
Chi riconosce che il bias è umano propone una strada diversa: usare l’AI per identificare e correggere i bias, non per perpetuarli. Sistemi di auditing algoritmico, dataset bilanciati, metriche di equità integrate nel processo di sviluppo. Non è utopia. È ingegneria. E funziona già in aziende come Salesforce e LinkedIn.
La vera domanda
La domanda non è “l’AI ha bias?”. La domanda è: “Preferiamo un mondo in cui il bias opera nell’ombra della mente umana, non misurabile e non correggibile, o un mondo in cui il bias è codificato, misurabile e progressivamente eliminabile?”
Chi sceglie la prima opzione non sta difendendo l’equità. Sta difendendo l’ignoranza. E l’ignoranza non ha mai protetto nessuno.