Non sono infallibili, queste reti neurali

Con i progressi che il Machine Learning e la Data Science hanno fatto negli ultimi quindici anni, il campo dell’informatica chiamato Intelligenza Artificiale (IA) è passato dall’essere un’invenzione futuristica nella testa di qualche scrittore di fantascienza a un fenomeno mondiale che non solo dà forma a molti aspetti della nostra quotidianità, ma è anche destinato a farlo sempre di più.

La maggior parte di noi passa molto più tempo di quello che vuole ammettere davanti allo schermo del proprio cellulare o computer. Una cosa di cui è più difficile rendersi conto, però, è che questa attività sia controllata quasi completamente da una qualche forma di Intelligenza Artificiale: gli algoritmi di Google, YouTube, Amazon, Facebook e molti altri siti sanno cosa ci piace guardare, quasi meglio di noi stessi, e sono incredibilmente bravi a proporci sempre il contenuto che ci farà rimanere incollati allo schermo ancora qualche minuto.

Capire quale è il contenuto più adatto da farci vedere è un classico esempio di decision making, ovvero l’arte di fare le scelte. È un’arte che per secoli si pensava fosse un’esclusiva degli esseri umani e della loro mente complessa, e che ora viene eseguita milioni di volte al giorno da computer, e non è certo l’unico campo nel quale i computer stanno “rubando” il lavoro delle menti umane. Gli algoritmi oggi assumono personale, vendono azioni, calcolano i rischi assicurativi, capiscono quando chiediamo loro il tempo che farà, scelgono la prossima canzone da ascoltare e addirittura guidano per dozzine di chilometri senza incidenti. Anzi, spesso sono molto meglio degli esseri umani in questi campi!

È facile pensare che questi nuovi software siano invincibili e che perciò possano risolvere tutti i nostri problemi, ma la verità è molto diversa: gli algoritmi sono spesso in grado di risolvere benissimo un particolare tipo di problema piuttosto circoscritto, ma mancano completamente della capacità di capire cosa stiano facendo e perché lo stiano facendo.
In lessico tecnico si dice che sono forme di Artifical Narrow Intelligence, cioè intelligenza artificiale non di larghe vedute, contrapposto a quella che si chiama Artificial General Intelligence, che è l’Intelligenza Artificiale che ha capacità uguali o molto simili a quelle di un umano medio. Esiste poi una terza forma di IA, l’Artificial Super Intelligence, che è superiore a quella umana e per ora, per nostra fortuna, popola solo l’immaginario collettivo e i libri di Asimov.

Le Artificial Narrow Intelligence mi ricordano un po’ i miei compagni di fisica al primo anno: dopo una settimana di esercizi sulle leve diventavano dei fulmini a svolgere gli esercizi della tipologia presente sul libro, ma se il prof faceva qualche cambiamento subdolo alla modalità d’esame andavano subito nel pallone. È come se gli algoritmi usati oggi fossero in un costante stato di “ma prof, questo ha detto che non lo chiedeva!”.

In particolare, ci sono tre ambiti importanti nei quali le macchine non si avvicinano nemmeno al livello umano, almeno per ora.

1) Comprensione del contesto e del discorso.

Un linguaggio articolato in parole e frasi, per quel che ne sappiamo finora, siamo gli unici ad averlo in tutto l’Universo. È forse il tratto che di più ci rende umani, ma nonostante sia una nostra prerogativa assoluta non ci siamo astenuti dal provare a ricrearlo.
La Speech Recognition (riconoscimento del linguaggio) è una delle branche più famose e floride dell’Intelligenza Artificiale: da decenni ormai, infatti, si cerca di insegnare a una macchina a capire quel che le viene detto, a dare un significato alle parole e magari a tradurre il contenuto in un’altra lingua o a dare una risposta appropriata.

Molti progressi sono stati fatti negli ultimi anni, tanto che un apparecchio in grado di capire frasi come “Che tempo farà domani a Londra?” e risponderci a tono è nella nostra tasca e possiamo attirare la sua attenzione semplicemente dicendo “ehi, Siri!”, ma dobbiamo ricordarci che le frasi che chiediamo ai computer di capire sono sempre relativamente semplici e strutturate in modo simile. Ci sono un numero piuttosto limitato di modi di chiedere di dirci le previsioni o di cercare qualcosa sul web per noi.
È un po’ come se Siri, e gli algoritmi di Speech Recognition in generale, avessero iniziato a studiare una nuova lingua: finché le frasi sono dette chiaramente, lentamente e con una struttura grammaticale semplice, o finché sono frasi che hanno già sentito identiche, sono perfettamente in grado di capire e sembrano anche meglio degli umani, ma appena i problemi si complicano anche di poco vanno nel pallone. E “mi spiace, non ho capito” detto con voce robotica è l’unica risposta che otteniamo.

Da molti scienziati del computer, un algoritmo che capisca qualsiasi cosa detta da un umano in una certa lingua è considerato un problema IA-completo; questo significa che se riuscissimo a creare una macchina in grado di farlo, probabilmente quella macchina sarebbe capace di risolvere qualsiasi altro problema complicato che stiamo cercando di insegnare ai computer, e sarebbe perciò intelligente tanto quanto un essere umano. Questo dovrebbe darci un’idea della complessità del problema! Per gli umani, una chiacchierata è qualcosa di banale ma per un computer capire modi di dire, espressioni sarcastiche, riferimenti politici, battute e in generale il contesto di una frase rimane un compito impossibile.

2) Comprensione delle emozioni ed empatia.

I film come Io, Robot e i romanzi di Asimov sono molto bravi a convincerci del contrario, ma la realtà è che le macchine non hanno emozioni. Non come le intendiamo noi almeno: le macchine non hanno una parte irrazionale che spesso e volentieri le controlla come invece hanno gli umani. Il modo che una macchina ha di processare il mondo intorno a lei è puramente matematico-razionale, il meglio che una macchina può fare è simulare delle emozioni che ingannino un interlocutore esterno. Per questo, e per il fatto che le emozioni umane sono incredibilmente complicate a volte anche per gli umani stessi, passerà molto tempo prima di vedere un’Intelligenza Emotiva Artificiale.

Empatizzare, almeno per i prossimi anni, rimane una prerogativa umana. La cattiva notizia è che dovremmo affidarci ancora per qualche decennio ai nostri colleghi umani per sentirci compresi e questo ogni tanto può essere frustrante, ma la buona notizia è che tutti i lavori che richiedono sensibilità ed empatia sono liberi dal rischio di essere automatizzati. Le macchine, dopotutto, non sono più brave di noi proprio sempre!

3) Pensare fuori dagli schemi e proporre soluzioni originali.

Gli algoritmi di Machine Learning usano metodi statistici per imparare: durante la fase di training, o allenamento, (ricordate? Ne abbiamo parlato qui!) guardano milioni di problemi svolti e aggiustano dei parametri interni, fin quando questi parametri interni non sono tarati in modo da permetter loro di risolvere problemi non ancora visti ma molto simili a quelli già visti.
In un certo senso, l’allenamento di un algoritmo di IA è un gigantesco ragionamento che suona come “beh i problemi di questo tipo si sono risolti un milione di volte così, questo problema numero un-milione-e-uno dello stesso tipo si risolverà allo stesso modo, no?”. Un po’ come i compagni di fisica che nominavo prima, che ogni tanto invece di concentrarsi sul problema che avevano davanti cercavano di ricordarsi come era stato svolto un problema simile dal prof in classe (e così facendo cadevano nelle trappole del prof, se era stato abbastanza sadico) gli algoritmi non possono cercare soluzioni originali ai problemi ma possono fare una sorta di ragionamento per analogia, una volta che hanno visto abbastanza esempi.
Questo però rende le IA assolutamente non in grado di creare soluzioni troppo originali, o addirittura di rendersi conto quando il problema che stanno affrontando è sostanzialmente diverso da quelli che hanno già visto.

A una IA così allenata non potremmo mai chiedere di creare un’opera d’arte rivoluzionaria, o di avere un’idea vincente per una Start-up.

In conclusione, è molto facile pensare che questa nuova generazione di algoritmi sia simile a noi, soprattutto quando guardiamo ai mille modi in cui imitano il nostro comportamento o addirittura lo migliorano, ma la verità è che le macchine sono diverse da noi a livello fondamentale.

Dobbiamo resistere alla tentazione di umanizzarle, e invece analizzare il loro comportamento con razionalità e matematica. Dobbiamo, insomma, parlare la loro lingua.

L’umanità e l’empatia è meglio riservarle agli esseri umani veri.

Costanza Polastri studia fisica dei sistemi complessi a Torino. Nel tempo libero scrive, crea i video per il suo canale youtube Polynerdeia e ogni tanto canta le canzoni di Beyoncé con scarso successo.

Rispondi

%d blogger hanno fatto clic su Mi Piace per questo: