Intelligenza e superintelligenza

Nick Bostrom è un filosofo svedese che, fra altri prestigiosi risultati nella sua carriera, è ora direttore del Future of Humanity Institute alla Oxford University. Sostanzialmente il lavoro di Bostrom è guardare lo stato attuale della tecnologia, chiedersi che cosa potrebbe andare storto? e scrivere racconti e saggi immaginando la risposta.

Esistono 3 tipi di IA, catalogati in base a quanto somiglino a un’intelligenza umana.

Artificial Narrow Intelligence (ANI). Il tipo che vediamo già in uso: è brava in pochi compiti una volta che è stata allenata, ma è molto più stupida di un umano.

Artificial General Intelligence (AGI). Paragonabile all’intelligenza di un essere umano medio, non esiste ancora e molti sono scettici sul fatto che sia possibile crearla o meno.

Artificial Super Intelligence (ASI). Più intelligente dell’essere umano medio, di poco o di molto.

1) Cosa è una superintelligenza, e qualche modo di crearla

Con il termine superintelligenza si intende un’intelligenza che sia superiore a quella umana media. Che sia solo leggermente superiore, magari di poco superiore al livello del più intelligente essere umano vivente, oppure che sia di diversi ordini di grandezza più intelligente di tutti noi, il che la renderebbe sostanzialmente un essere onnisciente, non importa; quel che ci interessa è che essendo superiore agli esseri umani può essere molto difficile per noi capire e prevedere le sue decisioni. Un algoritmo del genere sembra lontano millenni dal mondo di oggi, tanto che sono molti gli esperti a essere scettici. Tuttavia, mentre gli esseri umani tendono a pensare in modo lineare, il progresso tecnologico tende a crescere per ordini di grandezza. Dagli esperti viene chiamata Legge di Moore, ed essa non è una legge infrangibile come la gravità, è solo una cosa che si è sempre verificata.
Per dirlo in modo semplice, tecnologie che rivoluzionano la nostra vita e la cambiano dalle fondamenta vengono introdotte sempre più frequentemente. Una persona degli anni ’70 rimarrebbe a bocca aperta a vedere la vita nell’anno 2000, mentre una persona degli anni 2000 rimarrebbe a bocca aperta a vedere la vita nell’anno 2015. Per stupire una persona del 1970 servono 30 anni, per una del 2000 solo 15, perché le innovazioni vengono costruite l’una sui progressi dell’altra e aumentano esponenzialmente.

Si può argomentare che il progresso tecnologico avanzi a un passo molto più svelto di quello che noi riusciamo a immaginare, e perciò non andrebbe mai preso sottogamba.
Bostrom, in particolare, immagina diversi rami della tecnologia che opportunamente sviluppati potrebbero portare a una superintelligenza. Mi piacerebbe illustrarveli, perché non c’è nulla di più divertente di uno scenario apocalittico, no?

– Simulazione di un cervello umano

Credo che sarebbe l’incubo di ogni informatico, ma si potrebbe in teoria pensare di simulare direttamente un cervello umano… una particella alla volta. Al giorno d’oggi, sono state fatte simulazioni complete di un singolo neurone o di gruppi di 2-3 neuroni, quindi è uno dei modi meno probabili attraverso il quale arriveremo alla superintelligenza.

Il problema principale di questo modo, argomenta Bostrom, è che la potenza di calcolo della quale disponiamo è una microscopica frazione di quella che servirebbe. Chiunque abbia mai giocato a un videogame pesante su un computer un po’ vecchio sa quanto dolorosamente lenta sia una simulazione elaborata… immaginate che io guardi con rabbia l’icona di Overwatch sul mio computer mentre scrivo questo paragrafo.

Tuttavia la potenza di calcolo è sempre aumentata esponenzialmente negli ultimi decenni, e ci sono all’orizzonte nuove tecnologie rivoluzionarie come il computer quantistico. E se fosse possibile in futuro simulare davvero grossi insiemi di neuroni, o addirittura l’intero cervello?

– Selezione biologica e modifica genetica

Madre Natura ha creato l’intelligenza umana tramite la selezione naturale, no? Quindi ha senso che, se partiamo da degli esseri umani e li facciamo riprodurre per diverse generazioni, selezionando ogni volta solo i più intelligenti, arriveremo a una superintelligenza, no?

Aldous Huxley, uno dei miei filosofi preferiti, scrisse Brave New World con uno scenario simile in testa. E se questa prospettiva non fosse abbastanza inquietante, Bostrom suggerisce anche altri modi di creare un’intelligenza sovrumana a partire dalla nostra specie: potremmo selezionare gli embrioni, provare modifiche genetiche mirate o anche semplicemente migliorare la capacità cognitive degli umani più intelligenti con dei farmaci.

Quale scenario apocalittico preferite?

– Interfaccia cervello-macchina

Simile all’idea della selezione genetica, perché anch’essa si basa sul miglioramento degli esseri umani più che sulla creazione di un algoritmo da zero, è l’interfaccia cervello-macchina.

L’idea è la seguente: già ora noi umani deleghiamo le parti più lunghe o noiose di molti compiti a dei chip, ad esempio usando le calcolatrici per fare conti o gli hard disk esterni per salvare dati. Se chip del genere fossero impiantati direttamente nel nostro cervello sarebbero accessibili solo col pensiero e renderebbero l’essere umano che li possiede, di fatto, superintelligente.

Personalmente, credo che questo sia lo scenario più vicino alla realizzazione di tutti, anche se abita molto di più il regno della fantascienza che quello del futuro prossimo. La ricerca ha ancora molti ostacoli da superare prima di poter dialogare direttamente con il cervello umano… ma come dico sempre, una donna può sognare!

– Organizzazione

Una via particolare per raggiungere una superintelligenza è intensificare moltissimo le comunicazioni e i collegamenti fra le persone che esistono ora sulla terra, in modo da ottenere una superintelligenza “collettiva”, un’umanità che si muove come una sola persona.

È uno scenario leggermente meno apocalittico degli altri, e mi piace molto perché mette in evidenza come l’intelligenza sia un comportamento emergente di un insieme di elementi che dialogano molto fra loro, non qualche misteriosa o magica proprietà che solo il cervello umano ha.

In fondo, se l’intelligenza è complessità, perché non pensare che possa venire fuori dalla nostra complessa società?

– Intelligenza Artificiale

Il motivo per cui ho deciso di parlare di superintelligenza in una serie di articoli sull’intelligenza artificiale è che il modo più rischioso e al tempo stesso più probabile di creare una macchina più intelligente degli umani è, ironicamente, grazie agli umani stessi. L’evoluzione ha prodotto almeno una volta nella storia dell’universo una creatura intelligente: noi. E se provassimo a copiare il processo? Siccome gli esseri umani hanno il dono dell’intelligenza (almeno finché non si iscrivono a Twitter) sappiamo per certo che è possibile creare un’intelligenza almeno potente come quella umana. Ed è forse proprio questo, insieme con la curiosità di sapere come funziona il nostro stesso cervello, a spingerci a provare a ricrearla, un po’ come l’aver osservato il volo degli uccelli ci ha spinti a creare gli aeroplani perché ci ha mostrato che era possibile per oggetti più pesanti dell’aria alzarsi da terra.

Tuttavia, vale la pena notare una cosa: è stato il volo degli uccelli ad ispirare la creazione degli aeroplani, ma gli aeroplani non sbattono le ali. Allo stesso modo, se anche il cervello umano è ciò che ci fa pensare che si possa creare un’intelligenza artificiale brava almeno quanto noi, non è detto che quando effettivamente riusciremo a crearla essa provi empatia, amore, rabbia o compassione.

Non è assolutamente detto, insomma, che solo perché noi abbiamo creato una cosa che ragiona, allora quella cosa ragioni come noi. Anzi scrive Bostrom è probabile che le prime intelligenze artificiali a livello umano siano piuttosto aliene rispetto a noi.

2) Il problema di controllare una superintelligenza

Una AGI è probabilmente lontana nel tempo rispetto a noi, ma c’è comunque motivo di preoccuparsi. Non solo, come dicevamo prima, un’intelligenza artificiale può ragionare anche in modo molto diverso da noi, ma potrebbe anche aumentare la sua stessa intelligenza in modo troppo rapido per essere controllata.

Immaginiamo questo scenario: abbiamo creato finalmente un’Intelligenza Artificiale brava tanto quanto un essere umano. Se tutto va bene, essa è probabilmente in grado di capire dei concetti di matematica e fisica e computer science, al punto da riuscire a intuire il proprio stesso funzionamento. Proprio come un essere umano ha capito e creato una IA, questa stessa IA può capire sé stessa. E se è abbastanza intelligente da capire sé stessa, è abbastanza intelligente da capire come cambiare sé stessa per funzionare meglio. Può pensare di cambiare i collegamenti dei neuroni digitali che la costituiscono per diventare ancora più efficace. Se questo processo di automiglioramento avviene molto molto in fretta, può accadere quella che viene chiamata un’esplosione di intelligenza, che per quanto abbia un nome eccitante non è una prospettiva molto rosea per noi umani…

3) Perché è importante? Cosa potrebbe andare storto?

Perché non dobbiamo essere entusiasti all’idea di una macchina che diventa ogni secondo più intelligente? Dopotutto, significa solo che diventa più efficace a risolvere il problema che le abbiamo fornito, no?

Se chiedessimo [all’IA] di eliminare tutta la spam dice Elon Musk, multimilionario che ha fatto del controllo dell’IA una delle sue battaglie, lo farebbe nel mondo più efficace possibile. E quale è il modo più efficace possibile per eliminare la spam? Eliminare gli umani che la creano.

È molto difficile spiegare a un algoritmo così complicato da essere intelligente quanto noi, esattamente, cosa vogliamo che faccia. Le probabilità che sbagliamo anche solo una riga di codice sono altissime, e visto che un’IA è in grado di migliorarsi da sola, anche un piccolo errore può essere amplificato tantissimo dopo molte ricorsioni. Insomma, questa è la parte in cui ci convinciamo che i robot ci uccideranno tutti. Siamo in grado di controllare una AGI? E come facciamo a sapere se siamo in grado, se non ne abbiamo ancora costruita una?

4) Conclusioni, e un po’ di speranza

Nick Bostrom mi piace, fra le altre cose, perché conclude ogni lavoro con una nota di speranza. Sostanzialmente i suoi scritti sono il mito del vaso di Pandora…se fosse stato scritto da Asimov. La sua filosofia ha il grosso merito di aver messo in guardia gli scienziati sui rischi di avere a che fare con l’IA, e ha decisamente svegliato qualche coscienza. Insieme a Stephen Hawkings, un altro che durante l’ultimo decennio si è battuto per informare l’opinione pubblica dei rischi dell’innovazione, ha dipinto un quadro pessimista ma non apocalittico e nel quale, soprattutto, è sempre l’uomo ad avere la possibilità di fare scelte. Gli esperti di tutto il mondo sanno del problema, e man mano che la possibilità di creare una AGI si fa più concreta, verranno dedicati sforzi sempre maggiori alle ricerche su sistemi di controllo.

Pensare a scenari apocalittici non è divertente, ma se ci ricordiamo che siamo noi ad avere la libertà di scegliere non è difficile fare del bene anche in una situazione scoraggiante.

Rispondi

%d blogger hanno fatto clic su Mi Piace per questo: