Deepfake e democrazia: quando non puoi più credere ai tuoi occhi

· · 2 min di lettura

Un video del Presidente della Repubblica che annuncia l’uscita dell’Italia dalla NATO viene condiviso 2 milioni di volte in 3 ore. È convincente: la voce, i gesti, lo sfondo dell’ufficio presidenziale. È anche completamente falso. Generato in 15 minuti con un modello AI disponibile gratuitamente online. Benvenuti nell’era dei deepfake.

La tecnologia del falso perfetto

I deepfake del 2026 sono anni luce avanti rispetto ai primi esperimenti goffi. Modelli come quelli di Synthesia, HeyGen e tool open source generano video fotorealistici di qualsiasi persona a partire da pochi secondi di materiale originale. La voce viene clonata con una precisione del 95% da appena 3 secondi di audio.

L’accessibilità è il vero problema: non servono più competenze tecniche o hardware costoso. Chiunque con uno smartphone può creare un deepfake convincente in pochi minuti.

“Siamo entrati in un’era in cui la prova video non è più prova. Questo mina le fondamenta stesse della fiducia nella società democratica.” — Nina Schick, autrice di ‘Deepfakes’

La minaccia alle elezioni

Durante le elezioni slovacche del 2023, un audio deepfake che simulava il candidato progressista Michal Simecka che discuteva di brogli elettorali è stato diffuso 48 ore prima del voto. Non c’è stato tempo per smentire. Simecka ha perso. È impossibile misurare l’impatto del deepfake, ma il precedente è terrificante.

Negli USA, le primarie del 2024 hanno visto deepfake audio di Biden e Trump circolati come robocall. L’FCC ha dovuto dichiarare illegali le robocall generate da AI, ma fermare la diffusione è come svuotare l’oceano con un cucchiaio.

La corsa detection vs generation

La buona notizia è che anche la detection sta migliorando. Strumenti come Microsoft Video Authenticator, Intel FakeCatcher e le iniziative di verifica basate su C2PA (Coalition for Content Provenance) stanno creando sistemi di certificazione dell’autenticità dei contenuti.

Ma è una corsa agli armamenti che i difensori stanno perdendo. Per ogni detector, emerge un generatore più sofisticato. La vera soluzione non sarà tecnologica ma culturale: insegnare alle persone a non fidarsi ciecamente di ciò che vedono.

Condividi:
Cosa ne pensi?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *