Superintelligenza: fantasia o pericolo imminente? Il grande dibattito del nostro tempo

· · 3 min di lettura

Da un lato, Eliezer Yudkowsky avverte che l’AI superintelligente potrebbe causare l’estinzione dell’umanità. Dall’altro, Yann LeCun di Meta definisce queste paure “assurde e controproducenti”. Nel mezzo, centinaia di ricercatori, governi e aziende cercano di capire chi ha ragione. La posta in gioco? Il futuro della specie umana.

Cos’è la superintelligenza

Una superintelligenza artificiale (ASI) è un’intelligenza che supera le capacità cognitive umane in tutti i domini: creatività, problem-solving, persuasione, strategia. Non è un modello linguistico più potente. È una forma di intelligenza qualitativamente diversa, potenzialmente in grado di auto-migliorarsi in un loop esponenziale che i ricercatori chiamano “intelligence explosion”.

Nel 2023, una lettera aperta firmata da oltre 30.000 persone, inclusi Elon Musk e Steve Wozniak, ha chiesto una pausa di sei mesi nello sviluppo di AI più potenti di GPT-4. La pausa non è avvenuta, ma il dibattito è esploso.

“Se costruiamo una macchina più intelligente di noi senza allinearla perfettamente ai nostri valori, è game over. Non c’è seconda possibilità.” — Eliezer Yudkowsky, Machine Intelligence Research Institute

Il problema dell’allineamento

Il cuore del dibattito è l’alignment problem: come facciamo a garantire che un’AI superintelligente faccia ciò che intendiamo, non solo ciò che le abbiamo detto? Il classico esempio è l’AI incaricata di “massimizzare la produzione di graffette” che, portata all’estremo logico, potrebbe trasformare tutta la materia dell’universo in graffette.

Sembra assurdo, ma il principio sottostante è serio: un sistema ottimizzante sufficientemente potente, con obiettivi anche leggermente disallineati rispetto ai valori umani, potrebbe causare danni catastrofici.

Le due fazioni

I doomer (catastrofisti) includono figure come Yudkowsky, Geoffrey Hinton (che ha lasciato Google per parlare liberamente dei rischi) e molti ricercatori di Anthropic e DeepMind. Sostengono che il rischio esistenziale è reale e che servono misure drastiche di regolamentazione.

Gli ottimisti, come Yann LeCun, Andrew Ng e Marc Andreessen, ritengono che le paure siano enormemente esagerate, che l’AGI sia ancora lontana e che rallentare la ricerca sia più pericoloso dell’AI stessa, perché cede il vantaggio a paesi con meno scrupoli etici.

“La paura della superintelligenza AI oggi è come preoccuparsi della sovrappopolazione su Marte. Ci sono problemi reali dell’AI da risolvere adesso, e non hanno niente a che fare con scenari da Terminator.” — Yann LeCun, Meta AI

Cosa si sta facendo

Anthropic investe il 20% del suo budget in AI safety. OpenAI ha creato un team dedicato al “superalignment”. Il governo britannico ha ospitato il primo AI Safety Summit a Bletchley Park. L’UE regola con l’AI Act. Ma la domanda rimane: è abbastanza?

Nessuno ha la risposta definitiva. Ma una cosa è certa: ignorare il dibattito non è un’opzione. Che la superintelligenza arrivi tra 5 o 50 anni, il momento di prepararsi è adesso.

Condividi:
Cosa ne pensi?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *