La lotta su un’ideologia “pericolosa” che plasma il dibattito sull’IA
CasaCasa > Blog > La lotta su un’ideologia “pericolosa” che plasma il dibattito sull’IA

La lotta su un’ideologia “pericolosa” che plasma il dibattito sull’IA

Feb 15, 2024

Parigi (AFP) – La filosofia preferita della Silicon Valley, il lungo termine, ha contribuito a inquadrare il dibattito sull’intelligenza artificiale attorno all’idea dell’estinzione umana.

Emesso il: 28/08/2023 - 11:13

Ma critici sempre più accesi avvertono che la filosofia è pericolosa e che l’ossessione per l’estinzione distrae dai problemi reali associati all’intelligenza artificiale come il furto di dati e algoritmi distorti.

L'autore Emile Torres, un ex sostenitore di lunga data diventato critico del movimento, ha detto all'AFP che la filosofia si basava sul tipo di principi usati in passato per giustificare l'omicidio di massa e il genocidio.

Eppure il movimento e le ideologie ad esso collegate, come il transumanesimo e l’altruismo efficace, esercitano un’enorme influenza nelle università da Oxford a Stanford e in tutto il settore tecnologico.

Capitalisti di rischio come Peter Thiel e Marc Andreessen hanno investito in società di estensione della vita e altri progetti legati al movimento.

Elon Musk e Sam Altman di OpenAI hanno firmato lettere aperte in cui avvertono che l'intelligenza artificiale potrebbe estinguere l'umanità, anche se trarranno vantaggio sostenendo che solo i loro prodotti possono salvarci.

In definitiva, i critici sostengono che questo movimento marginale sta esercitando troppa influenza sui dibattiti pubblici sul futuro dell’umanità.

Gli studiosi a lungo termine ritengono che abbiamo il dovere di cercare di produrre i migliori risultati per il maggior numero di esseri umani.

Questo non è diverso da molti liberali del 19° secolo, ma i sostenitori del lungo termine hanno in mente una linea temporale molto più lunga.

Guardano al lontano futuro e vedono trilioni e trilioni di esseri umani fluttuare nello spazio, colonizzando nuovi mondi.

Sostengono che abbiamo verso ciascuno di questi futuri esseri umani lo stesso dovere che abbiamo nei confronti di chiunque viva oggi.

E poiché ce ne sono così tanti, portano molto più peso degli esemplari odierni.

Questo tipo di pensiero rende l'ideologia "davvero pericolosa", ha affermato Torres, autore di "Human Extinction: A History of the Science and Ethics of Annihilation".

"Ogni volta che si ha una visione utopica del futuro caratterizzata da quantità quasi infinite di valore, e la si combina con una sorta di modalità utilitaristica di pensiero morale in cui i fini possono giustificare i mezzi, sarà pericoloso", ha detto Torres.

Se una macchina superintelligente potesse essere sul punto di prendere vita con il potenziale di distruggere l’umanità, gli studiosi a lungo termine sarebbero destinati ad opporsi, indipendentemente dalle conseguenze.

Quando a marzo un utente di Twitter, la piattaforma ora conosciuta come X, gli chiese quante persone potrebbero morire per impedire che ciò accada, l'ideologo a lungo termine Eliezer Yudkowsky rispose che bastavano solo abbastanza persone "per formare una popolazione riproduttiva vitale".

"Finché questo è vero, c'è ancora la possibilità di raggiungere le stelle un giorno", ha scritto, anche se in seguito ha cancellato il messaggio.

Il lungo termine è nato dal lavoro svolto dal filosofo svedese Nick Bostrom negli anni ’90 e 2000 sul rischio esistenziale e sul transumanesimo – l’idea che gli esseri umani possano essere potenziati dalla tecnologia.

L’accademico Timnit Gebru ha sottolineato che il transumanesimo è stato legato fin dall’inizio all’eugenetica.

Il biologo britannico Julian Huxley, che coniò il termine transumanesimo, fu anche presidente della British Eugenics Society negli anni '50 e '60.

"Il lungo termine è eugenetica sotto un nome diverso", ha scritto Gebru su X l'anno scorso.

Bostrom è stato a lungo accusato di sostenere l'eugenetica dopo aver elencato come rischio esistenziale le "pressioni disgeniche", ovvero le persone meno intelligenti che procreano più velocemente dei loro coetanei più intelligenti.

Il filosofo, che dirige il Future of Humanity Institute presso l’Università di Oxford, si è scusato a gennaio dopo aver ammesso di aver scritto post razzisti su un forum Internet negli anni ’90.

"Sono a favore dell'eugenetica? No, non nel senso in cui il termine è comunemente inteso", ha scritto nelle sue scuse, sottolineando che è stato utilizzato per giustificare "alcune delle atrocità più orribili del secolo scorso".

Nonostante questi problemi, gli esponenti di lunga data come Yudkowsky, un abbandono del liceo noto per aver scritto fan-fiction di Harry Potter e promosso il poliamore, continuano a essere festeggiati.