Una corsa senza regole che può farci cadere tutti nell'abisso
Per chi, come me, opera nel settore della robotica, trend quali la corsa alla Superintelligenza Artificiale e la Physical AI – cioè consentire ai robot di percepire, comprendere e quindi agire – pongono interrogativi tanto importanti quanto ineludibili. Interrogativi essenziali, di enorme rilevanza per ciascuno di noi. La robotica e l'Intelligenza Artificiale verranno poste al servizio dell'umanità, e del bene collettivo? Oppure contribuiranno a rendere la nostra società ancora più ingiusta, per non dire distopica? O peggio ancora?
La risposta dipende dalle scelte delle singole aziende dietro queste tecnologie, ma soprattutto dalle regole che gli Stati e la comunità internazionale sapranno imporre. Al momento i leader dell'Intelligenza Artificiale operano in un mercato – quello degli Stati Uniti – sostanzialmente senza regole; la loro priorità è il profitto, la loro forza i tanti miliardi di dollari raccolti in giro per il mondo, e l'impatto sociale, politico e ambientale delle loro scelte è tenuto quasi sempre in scarsissima considerazione.
Nonostante i benefici dell'adozione su larga scala dell'Intelligenza Artificiale siano molteplici e cospicui (penso ad esempio agli impieghi nella ricerca farmacologica e medica), le minacce associate allo sviluppo non regolato della stessa sono tangibili e ormai ben note: dallo sviluppo di armi biologiche agli usi militari, dal controllo dei dissidenti nei paesi autoritari al diluvio di fake news. E lo stesso vale per la robotica.
Gran parte della comunità scientifica, e dirigenti apicali di quello che i media chiamano Big Tech, concordano sui rischi insiti nella corsa dissennata alla Superintelligenza Artificiale. Rischi dai contorni ancora non ben definiti, ma potenzialmente enormi: persino l'estinzione della specie umana.
CEO del calibro di Dario Amodei, scienziati illustri come Yoshua Bengio (Turing Award nel 2018) e Geoffrey Hinton (Nobel per la fisica nel 2024) hanno rilasciato interviste e scritto libri per mettere in guardia il mondo. In un recentissimo saggio (If Anyone Builds It, Everyone Dies: The Case Against Superintelligent AI) Eliezer Yudkowsky e Nate Soares prefigurano – sin dal titolo, nella traduzione italiana un po' addolcito – scenari a dir poco inquietanti. Al contempo, tuttavia, l'Intelligenza Artificiale e la robotica possono essere un game changer formidabile nel costruire società più giuste, resilienti e sicure, così da avere un welfare più forte e in grado di affrontare le sfide del XXI secolo (dall'invecchiamento della popolazione al rischio di nuove pandemie, sino alla crisi climatica).
L'azienda tecnologica da me fondata, Tactile Robots, lavora insieme a partner di alto livello proprio per esplorare, attraverso la robotica e l'Intelligenza Artificiale, nuovi casi d'uso capaci di migliorare la qualità dei servizi a cui ciascuno di noi accede nella quotidianità. L'obiettivo è quello di migliorare la vita umana, e la società.
Da ingegnere e manager faccio tutto quello che posso per indirizzare lo sviluppo di Tactile Robots nella giusta direzione. Però sono consapevole che l'azione di una singola azienda non è sufficiente per scongiurare i rischi legati alla Superintelligenza Artificiale. Né può farlo un singolo governo nazionale.
Ecco perché ho abbracciato la causa di associazioni come PauseAI e ControlAI. Qualche giorno fa ho partecipato alla conferenza Pausecon a Bruxelles, presso il Parlamento Europeo. Ho assistito a un toccante discorso di Stuart J. Russell, autore del libro di testo sull'Intelligenza Artificiale che ho studiato quando ero uno studente al Politecnico di Milano. Mi ha colpito vedere una mente del suo calibro, un'istituzione nel nostro settore, commuoversi parlando dell'assurdità della corsa alla Superintelligenza Artificiale senza una regolamentazione in grado di scongiurare i rischi catastrofici che da essa potrebbero derivare.
Ho apprezzato gli interventi di numerosi parlamentari europei, che hanno mostrato una grande sensibilità su questi temi. Lo sviluppo di una Superintelligenza Artificiale è, a mio parere, un suicidio collettivo. L'unica via percorribile è un grande accordo internazionale che definisca le regole di uno sviluppo sicuro e responsabile ed avvii subito la creazione di istituzioni per il controllo e il monitoraggio della Superintelligenza Artificiale e per lo sviluppo di tecnologie ad hoc (del resto le auto sono dotate di freni e il loro motore può essere acceso e spento in ogni istante; storicamente l'elemento caratterizzante di ogni creazione tecnologica è proprio questo, il fatto che l'essere umano ne ha il controllo ultimo).
Una via collaborativa internazionale per uno sviluppo sicuro e sostenibile dell'IA e della robotica è la sola scelta razionale non solo per scongiurare il rischio di estinzione dovuto a una Superintelligenza Artificiale incontrollata, ma per stabilizzare l'industria dell'IA, rendere le deeptech profittevoli (e garantire così il ritorno di investimento ai VC di mezzo mondo) e scongiurare il rischio di un'escalation tecnologico-militare in grado di sfociare in conflitti devastanti.
Occorre agire; dobbiamo tutti agire.