Deepfake e democrazia: quando non puoi più credere ai tuoi occhi
Un video del Presidente della Repubblica che annuncia l’uscita dell’Italia dalla NATO viene condiviso 2 milioni di volte in 3 ore. È convincente: la voce, i gesti, lo sfondo dell’ufficio presidenziale. È anche completamente falso. Generato in 15 minuti con un modello AI disponibile gratuitamente online. Benvenuti nell’era dei deepfake.
La tecnologia del falso perfetto
I deepfake del 2026 sono anni luce avanti rispetto ai primi esperimenti goffi. Modelli come quelli di Synthesia, HeyGen e tool open source generano video fotorealistici di qualsiasi persona a partire da pochi secondi di materiale originale. La voce viene clonata con una precisione del 95% da appena 3 secondi di audio.
L’accessibilità è il vero problema: non servono più competenze tecniche o hardware costoso. Chiunque con uno smartphone può creare un deepfake convincente in pochi minuti.
“Siamo entrati in un’era in cui la prova video non è più prova. Questo mina le fondamenta stesse della fiducia nella società democratica.” — Nina Schick, autrice di ‘Deepfakes’
La minaccia alle elezioni
Durante le elezioni slovacche del 2023, un audio deepfake che simulava il candidato progressista Michal Simecka che discuteva di brogli elettorali è stato diffuso 48 ore prima del voto. Non c’è stato tempo per smentire. Simecka ha perso. È impossibile misurare l’impatto del deepfake, ma il precedente è terrificante.
Negli USA, le primarie del 2024 hanno visto deepfake audio di Biden e Trump circolati come robocall. L’FCC ha dovuto dichiarare illegali le robocall generate da AI, ma fermare la diffusione è come svuotare l’oceano con un cucchiaio.
La corsa detection vs generation
La buona notizia è che anche la detection sta migliorando. Strumenti come Microsoft Video Authenticator, Intel FakeCatcher e le iniziative di verifica basate su C2PA (Coalition for Content Provenance) stanno creando sistemi di certificazione dell’autenticità dei contenuti.
Ma è una corsa agli armamenti che i difensori stanno perdendo. Per ogni detector, emerge un generatore più sofisticato. La vera soluzione non sarà tecnologica ma culturale: insegnare alle persone a non fidarsi ciecamente di ciò che vedono.