La guida di riferimento della SIAI per la costruzione di una Intelligenza Artificiale "amichevole"
di Peter Voss
Articolo originale (inglese)*

Il sito del SIAI

Il SIAI (Singularity Institute for Artificial Intelligence) ha recentemente pubblicato la versione 1.0 della sua guida di riferimento per la ingegnerizzazione dell'"amichevolezza" nei sistemi intelligenti (SIAI Guidelines for Friendly AI)

Nei sistemi di Intelligenza Artificiale (IA) e in particolare nei sistemi dotati della possibilità di auto-migliorarsi - o "semi di IA" - è immaginabile che possa emergere una massa critica di intelligenza dalla quale le capacità del sistema in questione potrebbero in breve tempo svilupparsi in modo iper-esponenziale. Tale improvviso sviluppo comporterebbe ovviamente dei rischi. Anche senza tale rapido e decisivo sviluppo ("hard take-off"), dovremmo considerare con attenzione la possibilità che futuri sistemi di IA dotati di maggiore autonomia possano decidere di perseguire  obiettivi imprevisti e dimostrarsi ostili nei nostri confronti.

La questione del nostro rapporto con macchine realmente intelligenti è cruciale e io approvo e sostengo il SIAI per il suo contributo in questa direzione. Leggendo la guida di riferimento del SIAI, però, mi vengono in mente una serie di commenti:

Il più importante è: "E' necessaria una guida di riferimento?" Le macchine avranno mai una loro propria volontà, o rimarranno sempre sottomesse ai nostri scopi e obiettivi? (si noti però, che nè la guida di riferimento, nè queste osservazioni possono risolvere il problema delle IA specificamente programmate per essere ostili). Al momento, mi defineri agnostico su questo punto. Potremmo scoprire che tutte le super-intelligenze saranno inerentemente benevole, o che rimarranno neutrali, senza obiettivi tranne quelli dei loro progettisti/operatori. D'altra parte, riconosco la possibilità di una IA indipendente e ostile. Ovviamente, questo è uno scenario da evitare a tutti i costi.

La prossima domanda allora sarà: "E' teoricamente solida la guide di riferimento del SIAI?" Ho un certo numero di gravi riserve su parecchi presupposti e conclusioni del progetto AI sottostante la guida di riferimento, così come la guida stessa. Tuttavia, desidero spostare l'attenzione verso un problema più pratico: sarà possibile implementare la guida di riferimento? Attualmente soltanto alcune dozzine di ricercatori/squadre di AI (a livello mondiale!) stanno realmente mettendo a fuoco gli aspetti teorici e pratici per la realizzazione dell'intelligenza generale di livello umano nelle macchine. Anora meno sono quelli che affermano di avere una struttura teorica ragionevolmente completa per realizzarla. La praticabilità di attuare la guida di riferimento deve essere valutata nel contesto degli specifici progetti per l'IA. Sarebbe utile avere risposte da tutti i vari ricercatori: sia sul loro punto di vista generale sull'esigenza di (e sul metodo per ottenere) l'"amichevolezza", ed anche per sapere se l'applicazione della guida di riferimento della SIAI sarebbe compatibile con i loro progetti.

Alcuni commenti sulle otto raccomandazioni di design fatte nella guida di riferimento, alla luce della mia teoria della mente/intelligenza:

1) Sistema di obiettivi dominato dall'amichevolezza - non realizzabile: il mio progetto non tiene conto di un super-obiettivo così ad alto livello.

2) Sistema di obiettivi causale trasparente  - non realizzabile: richiede il punto 1)

3) Contenuto super-obiettivo probabilistico - è inerente al mio progetto: tutta la conoscenza e gli obiettivi sono soggetti a revisione.

4) Aquisizione di fonti di amichevolezza - mentre certamente consiglierei ad una IA di acquisire una conoscenza (teoria etica compresa) compatibile con che quella che io considero morale, questo non è necessariamente in accordo con quello che altri considerano desiderabili etica/amichevolezza.

5) Semantica di validità causale - è inerente al mio progetto: una delle funzioni chiavi dell'IA è di (aiutarmi a) rivedere e migliorare le sue premesse, inferenze, conclusioni, ecc. a tutti i livelli. Purtroppo, quest' abilità entra soltanto ed effettivamente in funzione una volta che un livello significativo di intelligenza è già stato raggiunto.

6) Ingiunzioni - questa sembra una buona raccomandazione, ma non è chiaro che tipo di ingiunzioni dovrebbero essere effettuate, come effettuarle efficacemente e in che misura si opporranno ad altre raccomandazioni/caratteristiche.

7) Auto-modellamento della fallibilità - è inerente al mio progetto. Questa sembra essere una forma astratta del punto (3)

8) Ascesa controllata - una buona idea, ma può essere difficile da implementare: può essere difficile distinguere tra una acquisizione veloce di conoscenza, miglioramenti nell'apprendimento, ed un auto-miglioramento generale (cioé, effettiva crescita dell'intelligenza).

---

Vedi anche, dello stesso autore: Intelligenza avanzata: super intelligenza, "intelligence augmentation" e il cervello globale

---

*L'autore ha chiesto di precisare che, non parlando italiano, non è responsabile della veridicita' e/o qualita' di questa traduzione del suo articolo.


Estropico