L'immagine mostra una rete di connessioni

Chissà se nel 1950 Alan Turing, proponendo il suo “Gioco dell’imitazione” in un articolo apparso sulla rivista Mind, aveva davvero chiaro in mente quale sarebbe stato il futuro della disciplina che noi, oggi, chiamiamo “Intelligenza artificiale”. Naturalmente non saremo mai in grado di dare una risposta, ma una cosa è certa: nonostante le sue intuizioni arrivarono in un momento storico in cui la tecnologia del tempo non consentiva ancora grandi passi (basti pensare che fu proprio lui uno dei padri dell’informatica moderna), di certo aveva già le idee chiare sul netto confine che separa l’uomo dalla macchina. Il termine “Intelligenza artificiale”, in realtà, venne coniato ben 6 anni dopo dall’informatico statunitense John McCarthy e probabilmente la scelta del nome non fu proprio felice, visto che da una parte creò tante di quelle aspettative nella comunità scientifica, da far passare come insignificanti i grandi risultati ottenuti nel primo decennio di vita della disciplina stessa e dall’altra, indusse la gente a temerla, immaginando scenari apocalittici, in cui il futuro del nostro pianeta è in mano a macchine intelligenti, in grado di dominare l’uomo. In realtà, Turing, qualche anno prima, mostrando maggiore lungimiranza, si era limitato a parlare di “intelligenza delle macchine”, sottolineando che per quanto tali potranno diventare, rimarranno sempre e soltanto macchine.
Senza entrare in complicati formalismi matematici, che provano a sviluppare delle reti in grado di emulare in modo rudimentale quelle neurali presenti nel nostro cervello, per dotare una macchina di “intelligenza”, il metodo seguito è quello di programmarle in modo che si possa consentire loro di interagire con il mondo circostante, ponendo interrogativi ed incamerando dati sulla base delle risposte ottenute. Giusto per fare un esempio, seppur banale: immaginiamo di scrivere un programma in grado di consentire ad un elaboratore di porre delle domande ad un interlocutore, per dare risposta a delle condizioni non note. Nel momento in cui mandiamo in esecuzione il programma, dunque, se è la prima volta che ciò accade, il computer ci potrebbe porre una domanda del tipo: “ciao, qual è il tuo nome?”. A quel punto, rispondendo “Massimiliano”, il computer andrà a memorizzare tale informazione, per cui la volta successiva, avviando lo stesso programma, non avrà più la necessità di sapere chi siamo ma, piuttosto, porgersi a noi con nuove domande: “ciao Massimiliano, come stai?” (un computer moderno, tra l’altro, potrebbe utilizzare una videocamera ed associare all’input testuale, ovvero il nostro nome, anche la foto del nostro volto, in modo da essere in grado di riconoscerci anche attraverso alcuni parametri biometrici, semplicemente analizzando le immagini riprese). Ovviamente il discorso lo si potrebbe continuare, ad esempio provando a far imparare al computer la differenza tra un uomo ed una donna, in modo da essere in grado in futuro, senza fare domande di alcun tipo, di comprendere da solo se un nuovo interlocutore è di sesso maschile o femminile. Analogamente, potrebbe chiederci l’età, cercando di imparare quali siano i dati da valutare per una stima quanto meno macroscopica sull’età apparente (indovinare l’età esatta, solo da uno sguardo, è spesso praticamente impossibile perfino per un essere umano) e così via.
Dunque, un software che procede in questo modo, necessità di essere“addestrato”, raccogliendo dati in risposta a determinate domande, in modo da acquisire conoscenza. Procedimento che è, di solito, molto lungo ma che, del resto, non è diverso dal modo in cui un essere umano acquisisce, con l’esperienza quotidiana, informazioni da incamerare: un bimbo che osserva per la prima volta una fiamma, attratto dalla luce, è portato ad avvicinare la mano per afferrarla, ma una volta percepita la sgradevole sensazione del “bruciarsi”, memorizzerà che la fiamma è qualcosa dalla quale tenere lontano il contatto.
Oggi, in modo inconsapevole, siamo circondati da macchine che lavorano in tal senso: ad esempio, quando scriviamo messaggi al telefonino, un sistema di predizione (ovvero un software “intelligente” in grado di memorizzare le parole e le frasi maggiormente usate da noi stessi nel tempo), ci suggerirà come completare le parole o le frasi, al fine di accelerare la digitazione, o ancora, i vari sistemi di riconoscimento vocale (di cui oggi sono dotate le auto, le tv, gli smartphone, etc.), sono in grado di apprendere il significato di parole, o frasi, semplicemente ascoltandole ed agire di conseguenza. Tutto questo è frutto di anni di “addestramento” dei software utilizzati e di memorizzazione di dati. Un altro “mattone” alla base di questo procedimento di apprendimento (che gli inglesi chiamano Machine Learning) è, dunque, il database, ovvero un archivio elettronico di dati. Più sono grandi questi archivi (gli inglesi parlerebbero di “big data”), più i programmi “intelligenti”, saranno in grado di estrapolare conoscenza da essi. Ecco, dunque, che oggi abbiamo esempi di autovetture che vanno in giro per il mondo da anni (Google car, ma non solo), imparando a guidare, ad interagire con l’ambiente attraverso una serie di sensori, in una sorta di corso di scuola guida dove il computer, ovviamente, parte svantaggiato (avendo la necessità di impiegare più tempo per raggiungere l’obiettivo) in quanto non si porta dietro almeno 18 anni di esperienza nell’interagire con l’ambiente, come di fatto accade a qualsiasi ragazzo o ragazza che intenda prendere la patente di guida (ovviamente questa non è la sola difficoltà cui va incontro il software che governa la guida di un’autovettura).
In che modo, dunque, tutto questo potrà portare dei benefici in un futuro che, di fatto, è già iniziato nel nostro presente, ad una persona con disabilità visiva? Ad esempio, quando le auto come la Google car saranno mature per circolare liberamente nel traffico, un non vedente potrà salirne a bordo, indicare attraverso un comando vocale il luogo nel quale intende recarsi e lasciarsi trasportare a destinazione. Ma un altro scenario (che tra l’altro ci vede, noi di vEyes, già in moto da alcuni anni con il progetto Arianna) è quello di addestrare un software scritto con la tecnica sommariamente descritta sopra, utilizzando dati clinici relativi a pazienti affetti da patologie rare della vista, in modo che il nostro sistema possa diventare una sorta di “supermedico”, esperto in tali patologie e proporre lui la diagnosi, a medici che magari, visto che parliamo di malattie rare, non hanno mai avuto la possibilità di confrontarsi (e quindi addestrare la propria, di rete neurale naturale) con un paziente affetto in tal senso. O, ancora, dentro casa, diventerà semplice interagire con gli elettrodomestici attraverso comandi vocali, superando le difficoltà spesso legate, per chi ha una disabilità visiva, al non poterne osservare lo stato attraverso led e display non tattili (anche qui, in molte case tutto questo è già in atto attraverso sistemi quali Alexa). Naturalmente in questo articolo mi limito solo ad alcune considerazioni sulla disabilità visiva, in quanto è questo l’obiettivo principale del nostro magazine, ma quanto detto vale a maggior ragione, nel caso di utenti con altre forme di disabilità (motoria, cognitiva, e così via).
Dunque, il futuro è già iniziato! Che dire se non: “mettetevi comodi e godetevi lo spettacolo”, cercando di far parte del cambiamento, non di combatterlo, né tanto meno temerlo. Potete scommettere che ci sarà solo da trarne benefici, a patto di imparare, oltre che ad accettarlo, ad adeguare le nostre aspettative a quello che una macchina, che tale sempre rimarrà, potrà essere in grado di mettere al nostro servizio.

Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.