26 Aprile 2024

L’allarme dei ricercatori: “L’Intelligenza Artificiale può portare all’estinzione dell’Umanità”

Gli esperti chiedono regole sull'IA. E' stata l'urgenza di regole in un settore pervasivo come l'Intelligenza Artificiale, a dettare l'allerta lanciata dal Center for AI Safety. "L'uso estensivo dell'IA da un lato sta portando a una vera rivoluzione e dall'altro sta ponendo seri problemi", viene osservato

Correlati

“L’intelligenza artificiale potrebbe portare all’estinzione dell’umanità”: è l’avvertimento di esperti del settore tra cui Sam Altman, ad del produttore di ChatGPT OpenAI, Demis Hassabis, amministratore delegato di Google DeepMind e Dario Amodei di Anthropic.

“Mitigare il rischio di estinzione dell’Intelligenza artificiale dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare”: è la dichiarazione pubblicata sulla pagina web del Center for AI Safety, un’organizzazione americana che riunisce esperti attivi nel settore. Anche Geoffrey Hinton, un cosiddetto padrino dell’IA, ha sostenuto l’appello. Tra i firmatari anche alcuni italiani.

E’ stata l’urgenza di regole in un settore pervasivo come l’Intelligenza Artificiale, a dettare l’allerta lanciata dal Center for AI Safety.

“L’uso estensivo dell’intelligenza artificiale da un lato sta portando a una vera rivoluzione e dall’altro sta ponendo seri problemi”, osserva uno dei firmatari della dichiarazione, l’esperto di tecnologie dell’informazione Luca Simoncini, ex docente di Ingegneria dell’informazione all’Università di Pisa ed ex direttore dell’Istituto di tecnologie dell’informazione del Consiglio Nazionale delle Ricerche.

“L’intelligenza artificiale è così pervasiva da avere un forte impatto in molti settori della vita sociale (pensiamo solo al rischio di produzione di fake news o al controllo delle auto autonome), come su aspetti economici, finanziari, politici, educativi ed etici”, osserva l’esperto.

“E’ evidente – aggiunge – che nessuno può opporsi se una tecnologia emergente è usata per scopi benefici, per esempio in campo biomedico o farmacologico”.

Di conseguenza, se parlare di rischio di estinzione dell’umanità può sembrare un’iperbole secondo Simoncini la dichiarazione del Cias ricorda il manifesto nel quale Bertrand Russell e Albert Einstein nel 1955 denunciavano i rischi delle armi nucleari. Il caso dell’Intelligenza artificiale è diverso, ma il punto è che servono regole chiare e una presa di coscienza. “Spesso ci si dimentica che questi sistemi sono fallibili”, aggiunge Simoncini, e le grandi aziende attive nel settore “basano le loro attività solo sulla prevalenza tecnologica, non si sono poste il problema di una regolamentazione”. Come dimostra quanto sta accadendo nel settore delle auto autonome, nei test “si segue un approccio empirico” e “non si considera la necessità di andare verso sistemi che non siano capaci di prendere decisioni autonome senza l’intervento umano, mentre bisognerebbe andare verso sistemi che siano di aiuto al guidatore, che ha comunque in ogni momento la possibilità di intervenire e riprendere il controllo”.

Anche nel caso dei Chatbot come ChatGpt, per esempio, “utilizzarli dovrebbe essere inteso come un aiuto, non come la sostituzione delle capacità umane da parte di un sistema di intelligenza artificiale”. Si dovrebbe pensare fin da adesso “alla necessità di porre limiti e vincoli”, conclude Simoncini, considerando gli usi sbagliati dell’intelligenza artificiale nel confezionamento di fake news sempre più difficili da riconoscere: “la difficoltà di distinguere fra vero e falso – conclude – potrebbe creare situazioni difficilmente governabili”.

Battiston, “algoritmi potenti che richiedono regole”

Servono regole per gestire algoritmi potenti come quelli dell’intelligenza artificiale e per evitare effetti imprevisti: è questo il senso dell’allerta lanciata dal Center for AI Safety, secondo il fisico Roberto Battiston, dell’Università di Trento e tra i firmatari della dichiarazione. “Questo tipo di algoritmi di Intelligenza artificiale generativa si sono rivelati molto potenti nell’interfacciare le persone utilizzando i dati presenti sul Web e il linguaggio naturale, così potenti che potrebbero generare effetti secondari imprevisti”, osserva Battiston.

“Nessuno oggi sa realmente quali potrebbero essere questi effetti, positivi o negativi: servono tempo e sperimentazione – prosegue il fisico – per realizzare regole e norme che permettano di gestire l’efficacia di questa tecnologia proteggendoci dai relativi pericoli. Non si tratta della minaccia di una super intelligenza che possa sopraffare l’umanità, ma delle conseguenze del modo con cui gli esseri umani si abitueranno a utilizzare questi algoritmi nel loro lavoro e nella vita quotidiana della società”. Pensiamo ad esempio, aggiunge, “alla possibile interferenza sui processi elettorali, alla diffusione di notizie false, alla creazione di canali di notizie che rispondono a precisi interessi di disinformazione”.

Per questo, osserva, “occorre prepararsi a gestire queste situazioni, le prime avvisaglie di problemi di questo genere le abbiamo già viste negli anni passati con la vicenda di Cambridge Analytica o con la tattiche di guerriglia dei troll russi sul web”. Di solito, dice ancora Battiston, “quando l’uomo non riesce a capire la realtà che lo circonda inventa miti, fantasmi, mostri, per cercare di proteggersi dai pericoli tramite un certo tipo di racconto mitologico. Il gioco è ancora saldamente nel campo dell’uomo, ma gli strumenti a disposizione sono molto più potenti che nel passato”.

A proposto del confronto con le armi atomiche, recentemente portato in campo a proposito dei rischi dell’intelligenza artificiale, Battiston osserva che “quando abbiamo scoperto la forza dell’atomo, abbiamo dovuto trovare il modo di contenere la minaccia di uno scontro nucleare. Per il momento ci siamo riusciti, per circa 80 anni. Qualcuno – dice ancora – ha paragonato la potenza di queste tecnologie a quella nucleare, chiedendo vengano realizzate delle regole adatte ad affrontare questi rischi. C’è probabilmente un fondo di verità in questo. Io credo, però, che sia molto importante capire bene come funzionano questi algoritmi, in quanto solo in questo modo – conclude – potremo attivare una opportuna serie di regole di contenimento sociale, sfruttando allo stesso tempo l’enorme potenzialità positiva”.


Ai Lettori

Secondo Piano News non riceve finanziamenti pubblici come i grandi e piccoli media mainstream sovvenzionati a pioggia dallo Stato. Pertanto chiediamo ai nostri lettori un contributo libero che può permetterci di continuare a offrire una informazione vera, libera e corretta


SOSTIENI L'INFORMAZIONE INDIPENDENTE


SEGUICI SUI SOCIAL

Per ricevere gli aggiornamenti lascia un like sulla nuova pagina Fb. Iscriviti anche al Gruppo "Un Unico Copione Un'Unica Regia". Seguici pure su TELEGRAM 1 (La Verità Rende Liberi); e TELEGRAM 2  (Dino Granata), come su Twitter "X" SPN nonché su X (Dino Granata)

Potrebbero interessarti

Mons. Viganò, il Pastore di Cristo contro i tiranni

Altre news

Mosca, arrestato il viceministro della Difesa russo. Avrebbe preso una tangente

Il vice ministro della Difesa russo Timur Ivanov è stato arrestato con l'accusa di corruzione. Lo riporta la Tass...

DALLA CALABRIA

Esplosione in una stazione di servizio, due operai in gravi condizioni

Due operai sono rimasti gravemente feriti a causa di un'esplosione avvenuta nel primo pomeriggio di mercoledì in un'area di...

Ai Lettori

Secondo Piano News non riceve finanziamenti pubblici come i grandi e piccoli media mainstream sovvenzionati a pioggia dallo Stato. Pertanto chiediamo ai nostri lettori un contributo libero che può permetterci di continuare a offrire una informazione vera, libera e corretta


SOSTIENI L'INFORMAZIONE INDIPENDENTE


SEGUICI SUI SOCIAL

Per ricevere gli aggiornamenti lascia un like sulla nuova pagina Fb. Iscriviti anche al Gruppo "Un Unico Copione Un'Unica Regia". Seguici pure su TELEGRAM 1 (La Verità Rende Liberi); e TELEGRAM 2  (Dino Granata), come su Twitter "X" SPN nonché su X (Dino Granata)