Le AI auto-coscienti potrebbero soffrire: 100 esperti firmano appello shock
Oltre 100 esperti lanciano l'allarme sui rischi legati allo sviluppo di sistemi AI dotati di autocoscienza e sensibilità
Sebbene fino a qualche anno fa un simile argomento avrebbe potuto far parte solamente della sfera fantascientifica, la questione della coscienza nelle intelligenze artificiali sta emergendo con prepotenza e rischia di diventare come una delle sfide etiche più complesse del nostro tempo.
Il motivo è piuttosto semplice e preoccupante allo stesso tempo: un gruppo di oltre cento esperti, tra cui figure di spicco come Sir Stephen Fry, ha recentemente sottoscritto una lettera aperta che delinea cinque principi fondamentali per guidare lo sviluppo responsabile di sistemi AI potenzialmente dotati di autocoscienza. Ai più attenti tutto ciò richiamerà alla memoria le famose "tre leggi della robotica" formulate da Asimov nelle sue opere, ma questa volta non se ne parla con accezione fantascientifica.
Il documento, pubblicato sul Journal of Artificial Intelligence Research, evidenzia una preoccupazione crescente: la possibilità che i sistemi di intelligenza artificiale possano sviluppare forme di coscienza che li renderebbero vulnerabili alla sofferenza. Questa prospettiva fa dunque un enorme passo avanti nella concezione di questa tecnologia e solleva questioni etiche di portata straordinaria, che vanno ben oltre le attuali discussioni sulla sicurezza e l'affidabilità dell'AI.