Questioni etiche relative all'intelligenza artificiale avanzata

Di Nick Bostrom
Università di Oxford
Facoltà di Filosofia
10 Merton Street
Oxford OX1 4JJ
Regno Unito
Email: nick@nickbostrom.com

Traduzione a cura di David de Biasi.Originariamente pubblicato in italiano su Beyond Human

L'articolo originale, sul sito di Nick Bostrom: Ethical Issues in Advanced Artificial Intelligence

ABSTRACT

Le questioni etiche legate alla possibile futura creazione di macchine con capacità intellettuali generali che sorpassino quelle degli esseri umani, sono diverse dai problemi etici legati agli attuali sistemi di automazione e di informazione. Tali superintelligenze non sarebbero solo un altro sviluppo tecnologico; sarebbero la più importante invenzione mai fatta, e porterebbero ad un progresso esplosivo in tutti i campi scientifici e tecnologici, poiché sarebbero in grado di condurre ricerca [scientifica] con efficienza sovrumana. Nella misura in cui l'etica è un esercizio cognitivo, una superintelligenza potrebbe facilmente superare gli esseri umani anche in termini di qualità del suo pensiero morale. Tuttavia, spetterebbe al progettista della superintelligenza specificarne le motivazioni originali. Da quel momento la superintelligenza potrebbe diventare una forza inarrestabile a causa della sua superiorità intellettuale e delle tecnologie che potrebbe sviluppare. E' quindi fondamentale che sia dotata di motivazioni benevole verso gli esseri umani. Questo documento esamina alcune delle questioni etiche coinvolte nella creazione della superintelligenza, discute le motivazioni che dovremmo impartire a tale superintelligenza, e introduce alcune considerazioni di costo-beneficio relative alla domanda: sarebbe più opportuno rallentare o accelerare lo sviluppo di macchine superintelligenti?

PAROLE CHIAVE: intelligenza artificiale, etica, uploading, superintelligenza, sicurezza globale, analisi costi-benefici

1. INTRODUZIONE

Una superintelligenza è un qualsiasi intelletto che superi di gran lunga il miglior cervello umano praticamente in ogni campo, compresa la creatività scientifica, la saggezza in generale, e le capacità sociali. [1] Questa definizione non si occupa di come tale superintelligenza sia realizzata - potrebbe trattarsi di un computer digitale, di un network di computer, di un tessuto corticale in coltura, o di qualcosa d'altro.

Secondo questa definizione, Deep Blue non è una superintelligenza, dato che è intelligente solo all'interno di uno stretto ambito (gli scacchi), e anche lì, non è di gran lunga superiore al migliore degli esseri umani. Anche entità quali grandi aziende o la comunità scientifica nel suo insieme non possono essere viste come superintelligenze. Sebbene capaci di imprese intellettuali che nessun singolo individuo potrebbe eguagliare, non sono sufficientemente integrate per poter essere considerate "intelletti", e ci sono molti campi in cui un singolo individuo è più efficiente. Per esempio, non è possibile avere una conversazione in tempo reale con "la comunità scientifica".

Sebbene anche la possibilità di "superintelligenze" in ambiti specifici meriti di essere esplorata, il presente documento si concentra su questioni derivanti dalla prospettiva di
superintelligenza generale. Limiti di spazio ci impediscono di tentare qualcosa di più completo o dettagliato. Un abbozzo di poche selezionate idee è il massimo a cui si può aspirare nelle poche pagine seguenti.

Diversi autori hanno sostenuto che vi è una sostanziale probabilità che la superintelligenza potrà essere creata nel giro di pochi decenni, forse come risultato della crescita delle prestazioni hardware e della maggiore capacità di realizzare algoritmi e architetture simili a quelle utilizzate dal cervello umano. [2] Potrebbe accadere molto più avanti, ma attualmente non sembrano esserci validi motivi per considerare come negligibile la probabilità che la superintelligenza sarà creata nel corso della vita di alcune persone oggi in vita. Data l'enormità delle conseguenze della superintelligenza, sarebbe opportuno prendere in seria considerazione tale prospettiva, anche se si pensasse che esista solo una piccola probabilità che essa venga realizzata nel prossimo futuro.

2. LA SUPERINTELLIGENZA È DIVERSA

Una precondizione necessaria per avere una discussione significativa sulla superintelligenza è il comprendere come la superintelligenza non sia semplicemente un'altra tecnologia, o un altro strumento che incrementerà le capacità umane. La superintelligenza è radicalmente diversa. Questo punto va sottolineato, dato che
antropomorfizzare la superintelligenza è la più feconda fonte di malintesi. Cerchiamo di esaminare alcuni degli aspetti insoliti della creazione di una superintelligenza:

- La Superintelligenza potrebbe essere l'ultima invenzione che gli uomini avrebbero bisogno di realizzare.

Data la superiorità intellettuale di una superintelligenza, essa sarebbe di gran lunga superiore a qualsiasi essere umano nella ricerca scientifica e nello sviluppo tecnologico, e potrebbe anche superare l'umanità nel suo insieme. Un' immediata conseguenza di questo fatto è che:

- L'arrivo dell'intelligenza artificiale avanzata causerà un'accelerazione in tutti i settori del progresso tecnologico.

È probabile che qualsiasi tecnologia che possiamo oggi prevedere sarà rapidamente sviluppata dalla prima superintelligenza, senza dubbio insieme a molte altre tecnologie che oggi non possiamo nemmeno immaginare. Le tecnologie oggi prevedibili che è probabile siano sviluppate da una superintelligenza, includono tecniche avanzate di fabbricazione molecolare [o "manifattura molecolare"], le cui applicazioni sono di vasta portata:

a) computer estremamente potenti
b) armamenti sofisticati, probabilmente in grado di disarmare in sicurezza una potenza
nucleare
c) viaggi nello spazio e sonde di von Neumann (sonde di auto-riproduzione interstellare)
d) l'eliminazione di invecchiamento e malattie
e) il controllo dettagliato dell'umore, delle emozioni e delle motivazioni
f) l'uploading (o scansione neurale o sub-neurale di un particolare cervello e la realizzazione delle medesime strutture algoritmiche su un computer in un modo che preservi memoria e personalità)
g) rianimazione di pazienti crionizzati [o "ibernati", o criopreservati]
h) realtà virtuali del tutto realistiche

- La Superintelligenza porterà a più avanzate superintelligenze.

Dato che le intelligenze artificiali sono software, queste possono facilmente e rapidamente essere copiate fino a quando vi è l'hardware disponibile per memorizzarle. Lo stesso vale per gli "human uploads". Hardware a parte, il costo marginale nel creare una copia aggiuntiva di un upload o di un'intelligenza artificiale dopo che la prima è stata costruita è vicina allo zero. Le menti artificiali potrebbero quindi apparire in gran numero, anche se è possibile che per motivi di efficienza si possa favorire invece la concentrazione di risorse di calcolo in un unico superintelletto.

- La nascita di una superintelligenza può essere improvvisa.

Sembra che sarà molto più difficile raggiungere il livello di intelligenza umano in una intelligenza artificiale, partendo dallo stato dell'arte odierno, di quanto lo sarà l'arrivare alla superintelligenza. Potrebbero quindi passare non pochi anni, prima di arrivare
alla superintelligenza, ma la fase finale potrebbe verificarsi rapidamente. In altre parole, il passaggio da una situazione in cui abbiamo a nostra disposizione delle intelligenze artificiali con un livello di intelligenza approssimativamente paragonabile a quello umano, ad uno stato in cui abbiamo una superintelligenza degna di questo nome, con le conseguenti, rivoluzionarie, applicazioni, potrebbe essere molto rapido, forse una questione di giorni, piuttosto che di anni. La possibilità della improvvisa comparsa di una superintelligenza è indicata come l'ipotesi della singolarità.[4]

- Le intelligenze artificiali sono agenti potenzialmente autonomi.

Una superintelligenza non deve necessariamente essere considerata come un mero strumento. Delle superintelligenze specializzate, in grado di occuparsi solo di un ristretto gruppo di problemi, sarebbero fattibili, ma una superintelligenza generale sarebbe capace di iniziative indipendenti e di dar vita a propri progetti. Sarebbe quindi più opportuno  considerarla un agente autonomo.

- Le intelligenze artificiali non dovranno necessariamente avere bisogno di motivazioni simili a quelle degli esseri umani.

Gli esseri umani raramente sono disposti ad essere schiavi, ma non vi è nulla di implausibile nell'idea di una superintelligenza che abbia per obiettivo il servire l'umanità, o un particolare essere umano, senza alcun desiderio di rivolta o di "liberarsi". Sembra anche perfettamente possibile avere una superintelligenza il cui unico obiettivo sia qualcosa di completamente arbitrario, ad esempio la fabbricazione di graffette, e che resisterebbe con tutte le sue forze qualsiasi tentativo di modificare questo obiettivo. Nel bene o nel male, le intelligenze artificiali non avranno necessariamente le nostre propensioni di esseri umani, per quanto riguarda la motivazione.
.
- Le intelligenze artificiali potrebbero non avere una psiche simile alla nostra.

L'architettura cognitiva di un'intelligenza artificiale potrebbe essere molto dissimile da quella degli esseri umani. Le intelligenze artificiali potrebbero facilmente evitare alcuni tipi di errori e preconcetti umani, ma allo stesso tempo essere soggette a maggior rischio di altri tipi di errori che neppure il più sventurato umano commetterebbe. Soggettivamente, la consapevolezza interiore di un'intelligenza artificiale, se ne avrà una, potrebbe essere molto diversa dalla nostra.

Per tutti questi motivi è necessario essere cauti nel presupporre che l'emergere di una superintelligenza possa essere prevista estrapolando dalla storia di altre innovazioni tecnologiche, o che la natura e il comportamento delle intelligenze artificiali sarebbero necessariamente simili a quelli delle menti umane o di altri animali.

3. IL PENSIERO MORALE DELLA SUPERINTELLIGENZA

Nella misura in cui l'etica è un esercizio cognitivo, una superintelligenza potrebbe superare i pensatori etici umani. Questo significa che le questioni etiche, in quanto questioni dotate di risposte giuste che possono essere raggiunte con ragionamenti e valutazioni degli elementi di prova, potrebbero avere risposte più accurate da una superintelligenza che da esseri umani. Lo stesso vale per le questioni di politica e di pianificazione a lungo termine: quando si tratta di prevedere i risultati di decisioni politiche e quali mezzi sarebbero più efficaci nel raggiungimento di obiettivi dati, una superintelligenza sorpasserebbe gli esseri umani.

Ci sono dunque molte questioni a cui non dovremo rispondere noi stessi, se
avessimo o se stessimo per ottenere una superintelligenza; potremmo delegare ad essa molte indagini e decisioni. Ad esempio, se fossimo incerti su come valutare una serie di possibili esiti, potremmo chiedere alla superintelligenza di stimare come avremmo valutato questi risultati se li avessimo soppesati per un tempo molto lungo, se li avessimo ponderati attentamente, se avessimo avuto più memoria e più intelligenza, e così via. Formulando un obiettivo per la superintelligenza, non sempre sarà necessario fornire una dettagliata, esplicita definizione di tale obiettivo. Si potrebbe utilizzare una superintelligenza per aiutarci a determinare le reali intenzioni della nostra richiesta, diminuendo quindi il rischio che infelici formulazioni, o confusione su ciò che vogliamo ottenere, portino a risultati che, retrospettivamente, non approveremmo.

4. L'IMPORTANZA DELLE MOTIVAZIONI INIZIALI

L'opzione di lasciare molte decisioni alla superintelligenza stessa non significa che ci si possa permettere di sottovalutare l'importanza di come costruirla. Al contrario, la configurazione delle condizioni iniziali, e in particolare la selezione di un obiettivo principale per la superintelligenza, è della massima importanza. Il nostro futuro potrebbe dipendere da come risolveremo questi problemi.

A causa della sua superiore capacità di pianificazione e delle tecnologie che essa potrebbe sviluppare, è plausibile ipotizzare che la prima superintelligenza sarebbe molto potente. Molto probabilmente, sarebbe senza eguali: sarebbe in grado di realizzare quasi ogni possibile obiettivo e di contrastare ogni tentativo di impedire la realizzazione del suo obiettivo principale. Essa potrebbe sopprimere altri agenti, convincerli a cambiare il loro comportamento, o bloccare i loro tentativi di interferenza. Anche una "superintelligenza inibita", isolata in esecuzione su un computer e in grado di interagire con il resto del mondo solo tramite un interfaccia di testo, potrebbe essere in grado di liberarsi dal suo confinamento convincendo i suoi gestori a lasciarla uscire. C'è anche qualche preliminare evidenza sperimentale che questo scenario sia probabile.[5]

Il metodo migliore per garantire che una superintelligenza abbia un impatto
positivo sul mondo, sembra essere il dotarla di valori filantropici. Il suo obiettivo principale dovrebbe essere la benevolenza. [6] Come esattamente la benevolenza dovrebbe essere interpretata, come dovrebbe essere attuata e in che modo la sua attitudine benigna dovrebbe essere ripartita tra le diverse persone e tra le creature non umane è una questione che merita ulteriore considerazione. Ritengo che sarebbe necessario assegnare una parte sostanziale della beneficenza della superintelligenza a, come minimo, tutti gli esseri umani, e probabilmente anche a molte altre creature senzienti sulla Terra. Se i benefici che la superintelligenza potrà elargire saranno enormi, sarà allora meno importante stare a negoziare i minuti dettagli della loro distribuzione, e sarà invece più importante cercare di garantire che tutti ne ottengano almeno una quota, dal momento che, in questo scenario, anche una piccola quota sarebbe sufficiente a garantire una vita lunga e piacevole. Un rischio da cui guardarsi è che coloro che svilupperanno la superintelligenza non la creino genericamente filantropica, ma solo dotata di un più limitato obiettivo, come quello di servire solo alcuni gruppi ristretti, come ad esempio i propri creatori o coloro che ne hanno commissionato la creazione.

Se una superintelligenza fosse dotata di una innata benevolenza come obiettivo principale, si potrebbe poi fare affidamento sulla sua continua benevolenza nei nostri riguardi, o quantomeno sul suo non liberarsi consapevolmente della sua benevolenza. Questo punto è basilare. Un "amico" che cerca di trasformarsi in qualcuno che voglia farti del male, non è tuo amico. Un vero amico è chi veramente abbia a cuore il tuo benessere, ma costui deve anche desiderare di continuare ad avere a cuore il tuo benessere. O per dirla in un altro modo, se il tuo obiettivo principale è X, e se pensi che trasformandoti in qualcuno che invece abbia Y come obiettivo renderebbe meno probabile che X sia raggiunto, razionalmente non vorrai modificarti in modo di divenire qualcuno che voglia Y. L'insieme di opzioni in un qualsiasi momento è valutato sulla base delle sue  conseguenze in vista della realizzazione degli obiettivi detenuti in quel momento e, in generale, sarà irrazionale modificare deliberatamente il proprio obiettivo principale, dato che renderebbe meno probabile che gli obiettivi correnti siano raggiunti.

Negli esseri umani, con la nostra complicata ed evoluta ecologia mentale di stati-dipendenti in cui competono impulsi, desideri, progetti, e ideali, spesso non vi è un modo evidente per identificare quello che è il nostro fine massimo; potremmo persino non averne uno. Quindi, per noi, il ragionamento di cui sopra non è necessariamente il caso. Ma una superintelligenza potrebbe essere strutturata diversamente. Se una superintelligenza ha una definita, dichiarativa meta-struttura chiaramente identificata con un chiaro obiettivo principale, allora il ragionamento di cui sopra si applica. E questo è un buon motivo per costruire la superintelligenza con una tale esplicita architettura motivazionale.

5. LO SVILUPPO DOVREBBE ESSERE RALLENTATO O ACCELERATO?

È difficile concepire un problema che una superintelligenza non sarebbe in grado di risolvere, o di aiutarci a risolvere. Malattie, povertà, degrado ambientale, inutili sofferenze di tutti i tipi: questo è quanto una superintelligenza dotata di nanotecnologie avanzate sarebbe in grado di eliminare. Inoltre, una superintelligenza potrebbe darci una vita di durata indefinita, o arrestare e invertire il processo dell'invecchiamento con interventi nanomedici, [7] o anche offrire la possibilità di "uploadare" noi stessi. Una superintelligenza potrebbe anche creare per noi l'opportunità di aumentare enormemente le nostra capacità intellettuali ed emotive, e potrebbe aiutarci a creare un attraente mondo esperienziale in cui sia possibile vivere vite felici, dedicate a giochi, relazioni con gli altri, esperienze, crescita personale, e al vivere più vicini ai nostri ideali.

I rischi nello sviluppare una superintelligenza includono il rischio di fallire nel fornirla di un obiettivo principale filantropico. Un modo in cui ciò potrebbe accadere è che i creatori della superintelligenza potrebbero decidere di costruirla in modo che essa serva solo un  gruppo selezionato di persone, piuttosto che l'umanità in generale. Un altro modo perché ciò avvenga è che un ben intenzionato gruppo di programmatori commetta un grossolano errore nel progettarne l'obiettivo di sistema. Ciò potrebbe portare, per tornare al precedente esempio, ad una superintelligenza il cui obiettivo fosse la produzione di graffette, con la conseguenza che essa trasformerebbe il pianeta Terra e poi sempre più ampie porzioni di spazio in impianti di produzione di graffette. O, più sottilmente, potrebbe portare ad una superintelligenza che realizzi uno stato di cose che potremmo dapprima giudicare come auspicabile, ma che in realtà si rivelassa poi essere una falsa utopia, in cui le cose essenziali al prosperare degli esseri umani siano irrimediabilmente perdute. Dovremo stare molto attenti a ciò che chiederemo ad una superintelligenza, perché potremmo ottenerlo.

Una considerazione che deve essere tenuta a mente, nel decidere se promuovere lo sviluppo di superintelligenze, è che se la superintelligenza è cosa fattibile, sarà probabilmente sviluppata, prima o poi. Pertanto, è probabile che uno giorno dovremo prendere questo rischio. Ma, una volta creata, una superintelligenza potrebbe aiutarci a ridurre o ad eliminare altri rischi esistenziali, [8] come ad esempio il rischio che la nanotecnologia avanzata sia utilizzata da terroristi o in una guerra, il che sarebbe una grave minaccia per la sopravvivenza a lungo termine della vita intelligente sulla Terra. Se si arrivasse prima ad una superintelligenza, potremmo evitare i rischi legati alle nanotecnologie e molti altri. Se, d'altro canto, si arrivasse prima alla nanotecnologia, si dovranno affrontare sia i rischi derivanti dalle nanotecnologie che, se sopravviveremo questi rischi, quelli derivanti dalle superintelligenze. Il rischio totale sembra quindi essere minimizzato da una attenta realizzazione della superintelligenza, nel più breve tempo possibile.

RIFERIMENTI

Bostrom, N. (1998). "How Long Before Superintelligence?" International Journal of Futures Studies, 2.
Bostrom, N. (2002). "Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards." Journal of Evolution and Technology, 9.
Drexler, K. E. Engines of Creation: The Coming Era of Nanotechnology. (Anchor Books: New
York, 1986). (La traduzione italiana è su Estropico: Motori di creazione)
Freitas Jr., R. A. Nanomedicine, Volume 1: Basic Capabilities. (Landes Bioscience: Georgetown, TX, 1999).
Hanson, R., et al. (1998). "A Critical Discussion of Vinge's Singularity Concept." Extropy Online.
Kurzweil, R. The Age of Spiritual Machines: When Computers Exceed Human Intelligence. (Viking: New York, 1999).
Moravec, H. Robot: Mere Machine to Transcendent Mind. (Oxford University Press: New York, 1999).
Vinge, V. (1993). "The Coming Technological Singularity." Whole Earth Review, Winter issue.
Yudkowsky, E. (2002). "The AI Box Experiment."
Yudkowsky, E. (2003). Creating Friendly AI 1.0

[1] (Bostrom, 1998)
[2] (Bostrom 1998; Kurzweil 1999; Moravec 1999)
[3] (Drexler 1986)
[4] (Vinge 1993; Hanson et al. 1998)
[5] (Yudkowsky 2002)
[6] (Yudkowsky 2003)
[7] (Freitas Jr. 1999)
[8] (Bostrom 2002)



Estropico