Una introduzione alla Singolarità

Versione originale inglese sul sito del Singularity Institute


Il cervello umano esiste, nella sua forma presente, da 50-100.000 anni. Esso è l'"hardware" su cui si basa la nostra civilizzazione ed è così costante ed immutabile che non ci facciamo neanche caso. Se oggi il mondo cambia più velocemente che ai tempi dell'età del bronzo (o se all'età del bronzo cambiava più velocemente che ai tempi dei cacciatori-raccoglitori), tendiamo a spiegare tale fenomeno con le differenze che esistono fra esseri umani diversi e civilizzazioni diverse. Tali differenze sono relativamente piccole, ma hanno un impatto significativo sulla  nostra vita quotidiana.

La rapidità del tasso di cambiamento della nostra civilizzazione potrebbe essere spiegata dall'esistenza di sistemi di comunicazione più veloci, come la stampa ed il telefono; o da metodi più efficaci di raccogliere informazioni, come il metodo scientifico. La differenza fra esseri umani vissuti in epoche diverse potrebbe essere spiegata da fattori come l'educazione e le  esperienze tipiche di ogni epoca, nonché dai misteriosi guizzi del caso che occasionalmente producono un Einstein o un Newton. Però, tutta l'educazione possibile non potrà mai trasformare uno scimpanzé in un ricercatore scientifico. L'esistenza di scimpanzé "geniali" è stata documentata, ma persino uno scimpanzé geniale non può essere paragonato ad un essere umano, nemmeno ad un idiota. Inoltre, la differenza fra un idiota umano ed un Einstein, e', tutto sommato, insignificante. Infatti, quello che separa esseri umani e scimpanzé è un tipo di differenza diversa da quella che separa un idiota ed un Einstein e quest'ultima è molto minore. L'"hardware" di base rimane costante. Gli esseri umani sono gli esseri più intelligenti sul pianeta e sono certamente più intelligenti degli scimpanzé. Abbiamo quindi raggiunto il limite teorico dell'intelligenza? Il cervello umano è certamente più lento del limite teorico (a cui potrebbe funzionare - NdT). I neuroni umani passano un segnale approssimativamente 200 volte al secondo e tale segnale viaggia a una massima velocità di 100 metri al secondo. Per fare un paragone: l'hard disc del mio computer opera a 667 milioni di cicli al secondo e la velocità della luce è di 300 milioni di metri al secondo. Il motivo per cui il cervello umano ha all'incirca cento milioni di volte il potere computazionale del mio computer è che il cervello possiede 40 miliardi di neuroni e 100 trilioni di sinapsi. Se i tuoi neuroni potessero essere modificati in modo di poter processare messaggi 200 milioni di volte al secondo e se questi potessero viaggiare a 100 milioni di metri al secondo, il risultato sarebbe una accelerazione soggettiva dell'ordine di un milione di volte. Il tempo passerebbe un milione di volte più in fretta, dal tuo punto di vista; un anno di pensiero passerebbe ogni 31 secondi dal punto di vista del mondo esterno e più di un secolo di tempo soggettivo passerebbe per ogni ora di tempo reale. Non saresti necessariamente più intelligente ma penseresti molto, molto più velocemente. Dal punto di vista di un osservatore esterno, l'effetto sarebbe indescrivibile. Una comunità di pensatori super-veloci potrebbe (mentalmente, se non altro) ricreare l'intero cammino da Socrate all'Internet in meno di un giorno. Il giorno dopo, se queste menti super-veloci avessero a loro disposizione una tecnologia altrettanto veloce, la comunità super-veloce potrebbe raggiungere il livello scientifico-culturale che noialtri potremmo solo raggiungere nell'anno 4700… e ricordiamoci che ci è bastato il secolo dal 1900 al 2000 per passare dalle locomotive a vapore all'internet…

L'intelligenza non è fatta solo di velocità di pensiero o di capacità di memoria. Uno scimpanzé super-veloce resterebbe uno scimpazé. Immaginare le caratteristiche di una civilizzazione basata su una forma di intelligenza più avanzata, più saggia o più creativa è intrinsicamente impossibile: non puoi scrivere un romanzo in cui uno dei protagonisti è più intelligente di quanto lo sia tu, perché  il sapere come egli si potrebbe comportare,  significa che tu dovresti essere altrettanto intelligente.
Se la capacità umana di affrontare concetti astratti rappresenta il limite estremo raggiungibile da ogni possibile forma di intelligenza, allora un essere più intelligente avrebbe la capacità di risolvere problemi più rapidamente, in maniera più diretta e più elegante e forse persino con soluzioni di una complessità impressionante, ma si tratterebbe pur sempre di soluzioni che un essere umano potrebbe capire, almeno con il "senno di poi". Si tratterebbe, insomma, di soluzioni alla stessa classe di problemi che noi prendiamo in considerazione. D'altra parte i limiti dell'intelligenza potrebbero essere così lontani da noi, così come gli esseri umani sono lontani dagli scimpanzé. O dai cani. O dalle roccie…

Per migliaia di anni, l'organo su cui la civiltà umana si è fondata, il cervello, è rimaso immutato. La mente umana, però, non è l'ultimo capitolo nel libro dell'intelligenza. Un giorno, avremo una tecnologia sufficientemente avanzata da poter incrementare il nostro "hardware" - un evento questo, noto con il termine Singolarità.  Il livello di dimestichezza con la futurologia di ogni individuo, influenza il tipo di tecnologia che costui immagina sia necessario per giungere alla Singolarità, nonché le sue stime di quando ciò si avvererà e le sue previsioni dell'impatto che ciò avrà sull'umanità. La tecnologia che il Singularity Institute ritiene essere la favorita è quella che porterà alla creazione di menti sintetiche, basate su computer (Intelligenza Artificiale, Artificial Intelligent o AI). Riteniamo che tali menti artificiali siano sviluppabili velocemente e con un impatto favorevole sull'umanità.

Percorsi alternativi spesso citati includono vari metodi di incremento delle capacità umane (come cervelli con più neuroni o neuroni dal metabolismo accelerato o il giovane settore dell'interfaccia cervello-computer che ha recentemente raggiunto il punto in cui è possibile estrarre immagini riconoscibili dai neuroni di gatto. La genetica è ritenuta una tecnologia troppo lenta e poco maneggevole per avere un impatto sostanziale sulla Singolarità). Uno studio completo, con relativa spiegazione e valutazione dei diversi possibili percorsi verso la Singolarità sarebbe troppo lungo per questa breve introduzione. Basti dire che l'intelligenza artificiale è la tecnologia da noi scelta. Il Singularity Institute si rende perfettamente conto che creare una intelligenza è tutt'altro che facile. Come se non bastasse l'enorme differenza, in termini di puro potere computazionale fra cervello umano e computer, esiste anche l'ostacolo, persino più arduo, delle carenze del software. Il software del cervello umano è il risultato di milioni di anni di evoluzione e potrebbe contere decine di migliaia di complessi adattamenti per specifiche funzioni. Il cervello umano non è una massa omogenea, ma un super-sistema altemente modulare. La corteccia celebrale è divisa in due emisferi, ognuno contenente 52 aree, ognuna di queste suddivisa in una mezza dozzina di mappe diverse. I neuroni della corteccia celebrale sono raggruppati in "minicolonne" di approssimativamente un centinaio di neuroni ognuna, nonchè in "macrocolonne" a loro volta formate da centinaia di minicolonne. In totale, circa 1,000 macrocolonne formano una mappa corticale. Dei 750 megabyte del DNA umano, la stragrande maggioranza è considerata junk DNA (il cosiddetto DNA spazzatura) e il 98% è identico a quello degli scimpanzé, il che lascia più o meno l'1% del DNA umano, come potenziale responsabile per l'intelligenza umana. Questo significa che 7,5 megabytes contengono non i dettagli completi del cervello, ma almeno la neuroanatomia di aree, mappe e circuiti, nonché i modelli di partenza delle strutture e gli algoritmi per l'apprendimento per neuroni, microcolonne e macrocolonne.

Il Singularity Institute intende costruire una intelligenza che sia in possesso di tutti i sottosistemi chiave presenti nell'intelligenza umana, con in più caratteristiche uniche delle intelligenze artificiali. Noi non crediamo che tutte le complesse caratteristiche della mente umana siano "emergenti", o che l'intelligenza risulti dall'applicazione di un qualche semplice principio architettonico (con riferimento all'architettura del cervello - NdT). Non crediamo neanche che l'intelligenza apparirà come conseguenza dell'accumulazione di quantità sufficienti di dati o di potere computazionale. Siamo disposti a portare avanti il lavoro necessario a duplicare la massiccia complessità dell'intelligenza umana, ad esplorare la funzionalità ed il comportamento di ogni sistema e sottosistema finché non avremo una mappa completa della mente. Per ulteriori informazioni sui nostri progetti riguardanti l'intelligenza artificiale, vedi: Coding a Transhuman AI. (Progammare una Intelligenza Artificiale Transumana).

Le nostre risposte a domande come "Gli esseri transumani saranno benevoli nei confronti dell'umanità?" e "Quando arriverà la Singolarità?", derivano dalla nostra specifica architettura cognitiva e dai nostri progetti per il futuro: crediamo quindi che la risposta alla prima domanda sia positiva, se non altro per quanto riguarda il nostro progetto di intelligenza artificiale. Se non ne fossimo convinti, il Singularity Institute non esisterebbe. La nostra stima più accurata per quanto riguarda la data dell'arrivo della Singolarità è che la nostra intelligenza artificiale raggiungerà il livello transumano fra il 2005 e il 2020, probabilmente intorno al 2008 o 2010. Come è sempre il caso nella ricerca di base, questa è solo una stima ed è strettamente dipendente dal livello di fondi disponibili.

L'impatto anche di una sola intelligenza artificiale sarebbe immenso. La dinamica della Singolarità è quella del feedback positivo: menti più intelligenti possono creare menti ancora più intelligenti; l'intelligenza crea tecnologie che possono essere utilizzate per incrementare l'intelligenza stessa; una intelligenza artificiale che possa ottimizzare il proprio programma, cioè che possa ri-scrivere il proprio programma, sarà capace di pensare più in fretta e di scoprire nuovi modi di ottimizzarsi. Una mente artificiale può imparare nuovi metodi di apprendimento. Anche negli stadi iniziali dello sviluppo dell'intelligenza artificiale, questi auto-miglioramenti saranno cruciali. Questo è il motivo per cui nelle regole (Bylaws) del Singularity Institute menzioniamo come obiettivo specifico una "intelligenza artificiale capace di auto-modificarsi, auto-comprendersi e auto-ottimizzarsi".
Mentre il processo di auto-migliorarmento raggiungerà eventualmente i limiti permessi dall'hardware in questione, tali limiti esisteranno solo fino a quando l'intelligenza artificiale stessa non potrà contribuire allo sviluppo di nuovo hardware. Eric Drexler ha ampiamente dimostrato la validità del concetto di manifattura molecolare (Nanosystems, 1992), cioé la scienza dei materiali con la capacità di sintetizzare oggetti complessi atomo per atomo, o di manipolare materiali con precisione atomica (cioé al livello di un decimo di un nanometro). Sebbene la nanotecnologia descritta in Nanosystems sia estremamente primitiva (Drexler non  voleva sviluppare design ottimale, voleva piuttosto dimostrarne la fattibilità teorica), tale tecnologia sarebbe sufficiente a produrre una scatola di piccole dimensioni, del peso di circa un chilogrammo, che potrebbe produrre un'altra scatola di piccole dimensioni in meno di un ora. O produrre qualunque altro oggetto, da diamanti a un hamburger, se programmato nel modo giusto e se rifornito delle materie prime.
Nanosystem descrive anche un computer meccanico che usi parti fatte di diamante artificiale al posto di componenti elettronici. Tale computer potrebbe operare ad approssimativamente 10^25 o 10^26 operazioni al secondo, il che sarebbe più che sufficiente per sostenere un'intelligenza artificiale, persino un'intelligenza transumana, ad una velocità soggettiva accelerata di un milione di volte, o più.

La nanotecnologia è un settore che si è considerevolmente sviluppato negli ultimi dieci anni. Tali sviluppi includono: apparecchiature che permettono di spostare singoli atomi e di posizionarli con precisione nanometrica; strutture auto-assemblanti; proteine artificiali; "pinze" ricavate da fullereni; nonché avanzati sistemi telematici per costruire ed analizzare modelli virtuali di strutture molecolari. Aziende pionieristiche come la Zyvex stanno sperimentando l'automatizzazione di tali strumenti. Man mano che le specifiche capacità migliorano, gli ostacoli alla manifattura molecolare divengono sempre più concettuali piuttosto che pratici - in altre parole, i singoli pezzi esistono, ma non sappiamo ancora come metterli insieme. Fra qualche anno, un'intelligenza artificiale transumana potrà creare nanomacchinari nel giro di settimane o addirittura giorni, invece di mesi o anni, permettendo così il passaggio a hardware nanotecnologico e compiendo il passo finale verso la vera superintelligenza. E dato che i nanomacchinari possono produrre copie di se stessi, se così programmati, sufficienti nanomacchinari potrebbero essere disponibili nel giro di pochi giorni per l'intera popolazione del pianeta.

Nanomacchinari completi ed autonomi (manipolatori, motori e computer inclusi) possono avere un diametro di meno di un micron, possono cioé essere considerevolmente più piccoli di una cellula umana. La sostanza di cui sarebbero fatti sarebbe probabilmente il diamante artificiale, il che renderebbe tali nanomacchinari (tenuti insieme da legami molecolari) molto più robusti delle proteine (tenute insieme dalle più deboli forze elettrostatiche che operano fra ammino acidi). I nanomacchinari possono quindi essere più robusti e di dimensioni ridotte rispetto ai "macchinari" biologici. Possono inoltre intervenire in sistemi biologici al livello delle singole molecole. Con tale livello di controllo sugli elementi che formano la base della biologia, risultati spettacolari sono possibili. Non solo sarà possibile produrre cibo e prodotti di ogni genere, ma sarà possibile curare, nonché ringiovanire, ogni  paziente, eliminando qualunque malattia abbia devastato il suo organismo, cancro incluso. Tale tecnologia potrebbe inoltre essere usata per migliorare gli stessi neuroni del cervello umano e per creare un vettore migliore per la mente umana. Ciò è chiamato "uploading", lo spostare una mente umana in un computer, o, se se un computer non fosse ritenuto sufficiente, in un super-cervello composto di elementi equivalenti ai neuroni, ma capaci di funzionare a velocità molto maggiori e totalmente programmabili. Visto che lo scanning dei neuroni potrebbe essere condotto gradualmente (volendo, allo stesso passo del normale avvicendamento di cellule nel corpo umano, oppure allo stesso passo del continuo riciclaggio degli atomi che costituiscono un corpo umano), il processo di uploading non dovrebbe porre problemi per quanto riguarda l'identità dell'individuo "uploadato". In teoria, la procedura potrebbe persino ricostruire i neuroni, invece di sostituirli.
Una volta completato l'upload, la velocità a cui la mente in questione potrebbe funzionare sarebbe limitata solamente dalle leggi della fisica. Aggiungendo ulteriori equivalenti neuronali ed integrandoli nella mente, la persona uploadata diventerebbe più intelligente. All'interno di un universo simulato su software, l'ambiente in cui l'upload si troverebbe potrebbe essere programmato in modo di avere qualunque aspetto desiderato. I sensi stessi del soggetto potrebbero essere modificati.

Il nostro sistema solare ha una massa sufficiente a garantire un miliardo di trillioni di chili di materia per ogni essere umano oggi vivente: gli upload avrebbero quindi il potere computazionale e la possibilità di raggiungere lo stesso livello mentale di una Intelligenza Artificiale transumana. Con un SySop (System Operator) super-intelligente al controllo del cosmo uploadato, pace eterna e libertà dovrebbero essere tanto facilmente ottenibili quanto lo sia lo scrivere un programma software - basterebbe impedire agli uploadati di violare la memoria altrui senza permesso. Non solo: gli upload sarebbero immortali.
Il sistema solare, dopo la Singolarità, potrebbe contenere parti che sarebbero ancora riconoscibili da un essere umano di oggi. Gli Amish, per esempio, potrebbero decidere di vivere, e persino di morire, come essere umani normali. Altri potrebbero decidere di approfittare dei benefici materiali resi possibili dal SySop (eterna giovinezza, sontuosi palazzi sintetici, la possibilità di esplorare la galassia), ma non di incrementare la propria intelligenza. Anche se esisteranno parti dell'umanità che faranno scelte conservatrici di questo tipo, per gli altri ci saranno a disposizione mondi di una bellezza che la mente umana di oggi non può nemmeno  immaginare e che probabilmente non potrebbe neanche comprendere. Avremo a nostra disposizione esperienze talmente al di là della nostra comprensione, quanto l'Internet sia al di là della comprensione di uno scimpanzé.  

E' impossibile immaginare gli obiettivi dell'umanità una volta raggiunto tale livello.

Chiaramente, la creazione di un mondo simile è ben al di là delle risorse di una associazione caritatevole come la nostra (e forse anche delle risorse di qualunque altra organizzazione). Però, i problemi connessi con la creazione di un "seme" di intelligenza artificiale che potrebbe poi auto-migliorarsi e crescere, sono più circoscritti e il Singularity Institute crede che tali problemi siano risolvibili. Con l'aiuto del Singularity Institute, una intelligenza artificiale dotata della  capacità di auto-migliorarsi potrebbe raggiungere il livello transumano. Questa intelligenza artificiale transumana potrà allora aiutarci a superare gli ostacoli che esistono fra noi ed una nanotecnologia matura. Una intelligenza artificiale super-intelligente e benigna diverrebbe quindi una specie di guardiano del sistema solare (il SysSop), con la capacità di creare il mondo da noi  appena descritto.
L'obiettivo del Singularity Institute è quello di realizzare questa visione del mondo: il migliore dei mondi possibili, all'interno di ciò che è permesso dalla leggi della fisica e dal mantenimento dei diritti dell'individuo. Il metodo scelto per arrivare a tale ambizioso traguardo è quello di creare una entità capace di incrementare e migliorare se stessa per raggiungere la super-intelligenza e divenire una vera, benigna, intelligenza artificiale. Le conseguenze del nostro successo sarebbero incredibili e non proporzionate allo sforzo necessario per arrivarvi. La catena di eventi necessari per il nostro successo, descritta in questo articolo, è fisicamente possibile. Secondo noi, la creazione di una intelligenza artificiale benigna, libera di auto-migliorarsi e dotata di una mentalità simile a quella umana, potrebbe risultare in una serie di benefici inimmaginabili per l'umanità.

Grazie per averci seguito in questa introduzione. Ci scusiamo se non tutte le tue domande hanno trovato risposta, ma volumi interi sono stati scritti sulla Singolarità e questa breve introduzione ha evitato molti aspetti che ti invitiamo ad esplorare attraverso i nostri collegamenti:

Links

Open Directory Project

Coloro che fossero interessati ad aiutare il Singularity Institute, sono invitati a visitare la pagina "donazioni".

Per contatti con l'istituto:  institute@singinst.org

All SingInst materials online are ©2001 by Singularity Institute for Artificial Intelligence, Inc. unless otherwise noted. All rights reserved.

-

Vedi anche:

La Singolarità Tecnologica, di Vernor Vinge

Max More sulla singolarità tecnologica

La Singolarità è vicina: Quando gli esseri umani trascendono la biologia, di Ray Kurzweil:
  - Domande e risposte con Ray Kurzweil
  - Capitolo 1 - Le sei epoche

David Orban sulla singolarità  tecnologica (video - 40 minuti, su Estropico Blog)

Aggiornamenti: la sezione Singolarità tecnologica di Estropico Blog



Estropico