Superintelligenza: fantasia o pericolo imminente? Il grande dibattito del nostro tempo
Da un lato, Eliezer Yudkowsky avverte che l’AI superintelligente potrebbe causare l’estinzione dell’umanità. Dall’altro, Yann LeCun di Meta definisce queste paure “assurde e controproducenti”. Nel mezzo, centinaia di ricercatori, governi e aziende cercano di capire chi ha ragione. La posta in gioco? Il futuro della specie umana.
Cos’è la superintelligenza
Una superintelligenza artificiale (ASI) è un’intelligenza che supera le capacità cognitive umane in tutti i domini: creatività, problem-solving, persuasione, strategia. Non è un modello linguistico più potente. È una forma di intelligenza qualitativamente diversa, potenzialmente in grado di auto-migliorarsi in un loop esponenziale che i ricercatori chiamano “intelligence explosion”.
Nel 2023, una lettera aperta firmata da oltre 30.000 persone, inclusi Elon Musk e Steve Wozniak, ha chiesto una pausa di sei mesi nello sviluppo di AI più potenti di GPT-4. La pausa non è avvenuta, ma il dibattito è esploso.
“Se costruiamo una macchina più intelligente di noi senza allinearla perfettamente ai nostri valori, è game over. Non c’è seconda possibilità.” — Eliezer Yudkowsky, Machine Intelligence Research Institute
Il problema dell’allineamento
Il cuore del dibattito è l’alignment problem: come facciamo a garantire che un’AI superintelligente faccia ciò che intendiamo, non solo ciò che le abbiamo detto? Il classico esempio è l’AI incaricata di “massimizzare la produzione di graffette” che, portata all’estremo logico, potrebbe trasformare tutta la materia dell’universo in graffette.
Sembra assurdo, ma il principio sottostante è serio: un sistema ottimizzante sufficientemente potente, con obiettivi anche leggermente disallineati rispetto ai valori umani, potrebbe causare danni catastrofici.
Le due fazioni
I doomer (catastrofisti) includono figure come Yudkowsky, Geoffrey Hinton (che ha lasciato Google per parlare liberamente dei rischi) e molti ricercatori di Anthropic e DeepMind. Sostengono che il rischio esistenziale è reale e che servono misure drastiche di regolamentazione.
Gli ottimisti, come Yann LeCun, Andrew Ng e Marc Andreessen, ritengono che le paure siano enormemente esagerate, che l’AGI sia ancora lontana e che rallentare la ricerca sia più pericoloso dell’AI stessa, perché cede il vantaggio a paesi con meno scrupoli etici.
“La paura della superintelligenza AI oggi è come preoccuparsi della sovrappopolazione su Marte. Ci sono problemi reali dell’AI da risolvere adesso, e non hanno niente a che fare con scenari da Terminator.” — Yann LeCun, Meta AI
Cosa si sta facendo
Anthropic investe il 20% del suo budget in AI safety. OpenAI ha creato un team dedicato al “superalignment”. Il governo britannico ha ospitato il primo AI Safety Summit a Bletchley Park. L’UE regola con l’AI Act. Ma la domanda rimane: è abbastanza?
Nessuno ha la risposta definitiva. Ma una cosa è certa: ignorare il dibattito non è un’opzione. Che la superintelligenza arrivi tra 5 o 50 anni, il momento di prepararsi è adesso.