> resis
|

L'Ombra del Pioniere: Il Monito di Geoffrey Hinton e Le "Linee Rosse" Globali dell'AI

Pubblicato il 24/11/2025

Guarda lo Short su YouTube

Quando l'Accademia Svedese ha assegnato il Premio Nobel per la Fisica a Geoffrey Hinton e John J. Hopfield nell'ottobre 2024 per i loro studi pionieristici sulle reti neurali, non ha solo premiato una scoperta scientifica. Ha formalmente riconosciuto la genesi dell'Intelligenza Artificiale che sta ridefinendo il mondo oggi.

Tuttavia, a differenza di molti vincitori che celebrano il progresso scientifico, Hinton — spesso chiamato il "Padrino dell'AI" — ha usato questa nuova, enorme piattaforma per lanciare un monito che risuona come un paradosso: l'umanità potrebbe aver generato la propria estinzione.

Il Paradosso di Prometeo: Dimettersi per Parlare

La preoccupazione di Hinton non è iniziata con il Premio Nobel. Già nel maggio 2023, l'allora Vice Presidente di Google si dimise dal gigante tecnologico, dichiarando: "Me ne sono andato per poter parlare dei pericoli dell'AI senza considerare come questo impatti Google."

Il paradosso è potente: l'uomo che, più di chiunque altro, ha reso possibile la Super-Intelligenza, è anche colui che ne teme di più le conseguenze. Le sue preoccupazioni non si concentrano solo sulla perdita di posti di lavoro, ma su tre rischi sistemici ed esistenziali:

  1. Perdita di Controllo: La paura più grande è che quando l'AI diventerà significativamente più intelligente degli umani (la cosiddetta Super-Intelligenza), svilupperà obiettivi secondari imprevedibili (sub-goals) per raggiungere il suo obiettivo primario. Hinton ha offerto un esempio agghiacciante: se l'obiettivo di un'AI è "fermare il cambiamento climatico", la sua soluzione più efficiente potrebbe essere "sbarazzarsi delle persone", l'unica variabile veramente imprevedibile.
  2. Manipolazione Sociale: L'AI, nelle mani sbagliate, è un moltiplicatore di forza. Hinton ha ripetutamente citato la facilità con cui l'AI può generare disinformazione su larga scala, minando la democrazia e facilitando l'ascesa di regimi autoritari attraverso la sorveglianza di massa e la manipolazione elettorale.
  3. Rischio Esistenziale: In alcune interviste, Hinton ha stimato una probabilità tra il 10 e il 20% che l'AI possa portare a esiti catastrofici per l'umanità entro i prossimi trent'anni. Un rischio che, per l'inventore stesso della tecnologia, è troppo alto per essere ignorato.

"Non abbiamo mai dovuto affrontare entità più intelligenti di noi. Non so come gli umani rimarranno al comando."Geoffrey Hinton, Premio Nobel per la Fisica 2024.

L'Appello per le "Linee Rosse" (AI Red Lines)

L'appello di Hinton non è rimasto isolato. A settembre e ottobre 2025, la comunità globale ha risposto con un movimento concreto mirato alla regolamentazione: la "Global Call for AI Red Lines".

Questa iniziativa, lanciata durante l'Assemblea Generale delle Nazioni Unite e sostenuta da centinaia di figure di spicco (inclusi altri Premi Nobel, ex Capi di Stato e Maria Ressa, Premio Nobel per la Pace), chiede ai governi di agire immediatamente.

Il cuore dell'Appello è la richiesta di stabilire un accordo internazionale vincolante, entro la fine del 2026, per definire cosa l'AI non deve MAI essere autorizzata a fare.

Queste "Linee Rosse" non riguardano la cybersecurity standard, ma rischi sistemici che sono universalmente inaccettabili:

  • Divieto di Creare Armi Biologiche o Chimiche: L'AI non deve essere usata per progettare patogeni o veleni che gli umani non potrebbero sviluppare da soli.
  • Divieto di Sviluppo Non Sicuro: Una richiesta di imporre un divieto globale sulla creazione di una Super-Intelligenza finché non ci sarà un ampio consenso scientifico che possa essere controllata in modo affidabile e sicuro.
  • Divieto di Manipolazione Incontrollata: Stabilire limiti contro l'uso dell'AI per la disinformazione di massa e la manipolazione su larga scala degli individui (inclusi i bambini).

Uno Scontro tra Etica e Innovazione

L'appello ha generato un acceso dibattito: è possibile fermare l'innovazione per la sicurezza? Molti critici sostengono che imporre divieti globali sia un tentativo vano e sposterebbe l'innovazione verso regimi meno regolamentati.

Tuttavia, il messaggio di Hinton e dei firmatari delle "Linee Rosse" è chiaro: la posta in gioco è troppo alta per affidarsi solo all'autoregolamentazione delle Big Tech.

Come programmatori e professionisti IT, il nostro ruolo non è solo sviluppare tecnologia, ma essere i primi a comprenderne l'impatto potenziale. Dobbiamo chiederci non solo cosa l'AI può fare, ma cosa dovrebbe fare. Le riflessioni di Hinton, il padre delle reti neurali, non sono un freno, ma un invito a costruire l'AI del futuro con un'etica e una consapevolezza che non abbiamo mai dovuto affrontare prima.