Come ho imparato a non preoccuparmi e ad amare il Machine Learning

“Non costruirai mai una macchina a somiglianza della mente umana”

(Bibbia Cattolica Orangista)

Cos’hanno in comune Elon Musk, Stephen Hawking e Bill Gates? Sono tutti figure chiave nei loro rispettivi campi, e parlano di Intelligenza Artificiale con toni allarmistici senza avere le competenze per farlo. Questo crea comprensibilmente preoccupazione tra le persone visto che a dirlo sono tre tra le figure più autorevoli e in vista del mondo scientifico-tecnologico americano, con una visibilità altissima e un’autorità indiscussa. Ma siamo davvero sicuri che ci sia una “emergenza AI”? E nel caso, queste persone sono una fonte attendibile da ascoltare o si rischia di cadere in un Argumentum ab Auctoritate, visto che nessuno di questi tre è un luminare del campo dell’Intelligenza Artificiale?

Secondo me non avete di che preoccuparvi, perlomeno per il prossimo decennio: cerchiamo di capire perché.

Facciamo prima di tutto una breve panoramica di ciò che si può definire Intelligenza Artificiale. La prima cosa da capire è che non è un campo a sé stante ma una somma di metodologie molto diverse tra loro che hanno risultati estremamente diversi per natura ed applicazioni. Il concetto di Intelligenza non è univocamente formalizzabile (nonostante ne siano state date infinite definizioni da filosofi, psicologi, neuroscienziati, informatici e fisici) e di conseguenza varia incredibilmente anche il modo con cui si cerca di riprodurre questa fantomatica intelligenza.

La principale divisione nel settore è tra quella che viene definita Artificial General Intelligence (AGI) e l’AI applicata, o “narrow”, termini che vengono raramente usati in favore di alternative come Machine Learning, che rendono meglio il senso di ciò di cui si occupa questa branca, ovvero far apprendere le macchine, risultato che, come vedremo, non è necessariamente sintomo di Intelligenza. Ci sono poi altre forme di Narrow AI che non ricadono necessariamente nelle tecniche comunemente definite come Machine Learning, come le soluzioni basate su framework logici e fuzzy che mostrano soluzioni “intelligenti” che non necessariamente funzionano apprendendo qualcosa.

L’AGI, come il nome lascia intendere, punta a generare “macchine” (intese come solo software o come una somma di componenti hardware uniti a software) che riproducano le caratteristiche dell’Intelligenza Umana. Questo campo di studi esiste da almeno sessant’anni, periodo in cui si sono succeduti tentativi ed esperimenti estremamente diversi tra loro per approccio e risultati, tutti caratterizzati dall’idea di sintetizzare il concetto di intelligenza e farlo replicare in qualche modo ad una macchina.

Una delle tecniche più ambiziose in questo campo è quella della Whole Brain Emulation, ovvero l’emulazione della struttura integrale del cervello neurone per neurone. Al momento però non abbiamo le conoscenze per farlo, o perlomeno per farlo in maniera efficace, fondamentalmente perché il cervello umano è troppo complesso per essere emulato da una macchina in tempi brevi. Il limite è quindi computazionale: il numero di neuroni da emulare è troppo alto e i modelli con cui simularlo troppo complessi perché un programma li possa calcolare in tempi umanamente utili.

Tuttavia piccoli progressi si stanno avendo nell’emulazione di strutture neurali molto più semplici, come il progetto Blue Brain dell’EPFL e di IBM che punta ad emulare le funzioni base di un cervello al fine di studiarne le caratteristiche, che eventualmente potrebbe portare a risultati utili per un’intelligenza artificiale generale. Obiettivi simili ha anche il progetto Open-Source OpenWorm, che punta ad emulare integralmente Caenorhabditis elegans, un verme di cui si vuole riprodurre il comportamento biologico integrale, molecola per molecola.

Sotto il termine AGI ricadono anche tanti altri approcci che al momento non possono che definirsi pionieristici, non essendoci ancora risultati tangibili, che sono attesi sul lungo periodo. L’idea condivisa da tanti è che il problema di generare un’intelligenza artificiale completa, o ancor peggio senziente e conscia di sé, sia un problema troppo complesso anche solo per capirne davvero la portata. Questo fa capire come in sessanta anni di tentativi non ci siano stati veri progressi e come ci sia una generale mancanza di fiducia verso questo settore, che rimane una piccola nicchia in termini di investimenti, pubblicazioni e ricercatori al lavoro.

Discorso totalmente diverso per la Narrow AI. Questo settore è vivo e operoso, con risultati strabilianti e innovazioni rivoluzionarie che si susseguono ogni giorno. La differenza con l’AGI è prima di tutto negli obiettivi, che sono molto meno ambiziosi. In questo campo ci si occupa di insegnare alle macchine a risolvere problemi estremamente specifici che con le tecniche dell’Informatica tradizionale non sarebbero risolubili. Questo tipo di soluzioni lo troviamo ovunque oramai e la loro applicazione sta diventando sempre più diffusa in tutti i campi della Tecnologia e della Scienza.

Di esempi ne possiamo vedere ovunque: si va dalla computer vision che vi permette di riconoscere oggetti, volti e situazioni all’interno delle foto (ad esempio la funzionalità di tagging di Facebook che avrete utilizzato in tanti), fino alle applicazioni finanziarie che investono autonomamente sui titoli più promettenti, passando per mille applicazioni futuristiche come la previsione del crimine o delle malattie, automobili che si guidano da sole, il riconoscimento del tuo orientamento politico dai tuoi like su Facebook o la diagnosi di malattie mentali dai tuoi tweet.

Tutte queste attività non sono fondate su sequenze di operazioni come possono esserlo la maggior parte dei programmi che eseguite sul vostro computer, ma si basano su metodologie molto più complesse, che cercano di estrarre un significato da ciò che gli viene dato in pasto e da questi significati fornire risposte utili e mirate, a volte riproducendo il comportamento umano come nel caso della computer vision, a volte “vedendo” cose che agli umani sono precluse, come ad esempio capire come raggruppare per similitudine le mappature dei genomi di persone diverse. Un essere umano farebbe anche solo fatica a leggere i 3,2 miliardi circa di paia di basi di un genoma, figuriamoci raggrupparne centinaia per similitudine.

Eppure trovare somiglianze tra cose, persone, concetti o testi scritti è un comportamento solitamente associato ad esseri senzienti e con un alto grado di intelligenza. Possiamo quindi dire che queste macchine sono intelligenti? Dipende dalla nostra definizione di intelligenza, che come già detto può variare tantissimo. Indipendentemente da questo non bisogna cadere nella fallacia dell’antropocentrismo: mostrare comportamenti di intelligenza umana non vuol dire che si sia davvero intelligenti, men che meno umani. Questo errore viene spesso compiuto con gli animali, sopratutto quelli da compagnia: se un cane mostra i denti e inarca i muscoli della bocca non sta sorridendo, anche se all’interpretazione umana quello può sembrare un sorriso. Allo stesso modo una macchina che riconosce il tuo viso e ti saluta per nome, come fa Pietro, il tuo panettiere, non è necessariamente capace di intelligenza umana e probabilmente non sa neanche fare il pane. Tuttavia si possono comunque dire intelligenti in quanto generano conoscenza dove prima non ce n’era o dove era nascosta, ma come abbiamo visto questo non va confuso con la definizione di intelligenza umana.

Dopo questa lunga introduzione all’Intelligenza Artificiale torniamo al nostro punto iniziale: questo ambito di ricerca è una minaccia per l’umanità? Se parliamo di AGI il dubbio potrebbe venirci, ma come abbiamo visto è tutto a uno stato talmente embrionale che per il momento non sembra una prospettiva credibile, a meno di scoperte incredibili e rivoluzionarie che accelerino i progressi in questo ambito. Tuttavia è legittimo stare attenti perché il campo, almeno in teoria, punta a generare un risultato, quello di un essere intelligente e potenzialmente senziente, che sarebbe, sempre in teoria, problematico. Tutto questo deve fare i conti col fatto che essendo ancora tutto molto approssimato, inconclusivo e fumoso è difficile fare speculazioni sui rischi. Questa attività è infatti appannaggio di persone che non lavorano nell’ambiente: scrittori, futurologi, filosofi, sviluppatori di videogiochi, registi, che da almeno un secolo ci bombardano coi pericoli posti dalle macchine che prendono vita.

Musk, Gates e Hawking, esattamente come la gran massa di individui che non si occupa di Machine Learning, sembrano avere un parere condizionato da questi prodotti culturali. Essendo loro stessi scienziati, hanno sicuramente un parere più informato e preciso, ma non essendo il loro campo di studi specifico, probabilmente non si sono accorti che la ricerca al momento non sta andando affatto in una direzione pericolosa e ci sono tante assunzioni fatte sul piano culturale che non trovano riscontro poi sul piano pratico di quello che si fa oggi nelle università, nei centri di ricerca, in IBM, in Microsoft, in Google. Oddio, Google ha acquisito Deepmind, una società che i rumor descrivono come un team di ricerca che punta seriamente ad avere risultati nel campo dell’AGI in tempi brevi, ma le speranze che si possa ottenere davvero qualcosa di simile sono molto scarse, almeno in base a ciò che è di pubblico dominio.

E per quanto riguarda il Machine Learning e la Narrow AI? Dalla spiegazione fatta prima sembra abbastanza intuibile come queste tecniche non costituiscano un problema: se un’intelligenza artificiale generale dovrebbe essere in grado di produrre soluzioni specifiche, non è possibile il contrario e non ha senso parlare di rischi connessi ad un’IA generale. Se uno insegna un comportamento intelligente a un cane, ad esempio a portare in casa il giornale ogni mattina alla stessa ora, dobbiamo preoccuparci che questo comportamento intelligente comporti un rischio tangibile collegato all’intelligenza umana come ad esempio la rifondazione del partito NazionalSocialista? Sembra abbastanza improbabile che un cane ci riesca.

Sopratutto tutte queste accuse e questi rischi danno per scontato che non si rifletta su cosa si sta facendo e che la situazione degeneri senza che nessuno si accorga di cosa sta accadendo, dall’oggi al domani. Se la mia Rete Neurale a cui ho insegnato a riconoscere gattini dai video di Youtube iniziasse a darmi output che parlano di sterminio della razza umana forse qualche domanda me la porrei, ma non sembra comunque uno scenario credibile. Le macchine non sono senzienti, non deviano da quello per cui sono state progettate e men che meno sono in grado di farlo di nascosto.

Un esempio molto in voga nella comunità del Machine Learning quando si parla delle accuse di rischio è il seguente: un uomo preistorico che scopre come accendere un fuoco e scopre che gli è utile inizia ad usarlo costantemente e si accorge che rischia di bruciarsi e prende le dovute precauzioni. Poi arriva il futurologo e gli dice: “Attento ad accendere un fuoco, potresti costruire un razzo, finire sulla Luna e non sapere come tornare indietro”. Il vero rischio non è finire sulla Luna ma bruciarsi, bisogna concentrarsi su quello. E nel nostro caso questi rischi ci sono e qualche danno, piccolo, l’hanno già fatto, ad esempio in campo finanziario dove l’uso estensivo di tecniche di predizione basate su IA dà vita a fenomeni anomali in casi particolari. Questi rischi cresceranno man mano che faremo maggiore affidamento alle macchine per prendere decisioni, magari in campo medico, politico, industriale o militare, ma rimarranno strumenti e in quanto tali starà all’utilizzatore decidere come usarli e come gestirne i rischi.

“If all that experience has taught me anything, it’s that the robot revolution would end quickly, because the robots would all break down or get stuck against walls. Robots never, ever work right.”

(Randal Munroe, autore di XKCD)

Ma ribaltiamo il problema: quali sono i rischi di fare affermazioni come quelle di Hawking, ad esempio? I rischi sono di instillare paura nelle persone per qualcosa che al momento è innocuo. Ha senso tenere presente questi rischi ipotetici ma già ci hanno pensato generazioni intere di artisti e chiunque faccia ricerca in questo ambito avrà nella sua vita visto dozzine di prodotti culturali in cui un elemento chiave della trama è il rapporto uomo-macchina. La differenza è quindi se viene presentato come un problema diretto, tangibile, imminente, sopratutto da persone con autorità in campo scientifico e tecnologico. Questo è pericoloso e andrebbe fatto con maggior cautela, sopratutto perché rischia di ripercuotersi sulle attività a rischio nullo come quelle del Machine Learning, che stanno avendo un impatto estremamente positivo sulla ricerca scientifica, sopratutto in campo medico, biologico e astronomico, e sulla tecnologia, permettendo di creare servizi prima impensabili con costi risibili.

Tuttavia tutte queste cose di cui abbiamo parlato, tutte queste conclusioni, tutta questa “tranquillità” che vi propongo è strettamente inerente alle possibilità di creazione di un’AI senziente ed autonoma, che, a mio parere, non vedremo a breve. Questo discorso non è però valido per gli usi errati di tutte le tecnologie di cui vi ho parlato. Macchine sempre più potenti a cui facciamo sempre più affidamento avendo sempre meno capacità di prevedere l’esito esatto di un’azione portata a termine da queste sono comunque un pericolo, come sono un pericolo tutti gli strumenti usati in maniera errata o volontariamente abusati per creare danni. Per questo sta diventando pressante la tematica: istituire comitati di controllo, creare un’etica forte tra chi opera in questo settore, acquisire coscienza dei rischi sono tutte cose da fare, ma sono problemi che riguardano gli uomini. Perciò dormite sonni tranquilli, gli unici in grado di portarci a scenari apocalittici rimangono sempre e comunque gli uomini, le macchine non ci toglieranno quest’esclusiva a breve.

Rispondi

%d blogger hanno fatto clic su Mi Piace per questo: