Intelligenza artificiale: quali sono le prospettive future?
/Si chiama Sophia, ed è la donna robot presentata al Web Summit di Lisbona, la più grande conferenza tecnologica dei nostri tempi. Una presentazione che ha destato non poco stupore, sintomatica dell’attuale stato di fermento in cui si trova la ricerca sull’intelligenza artificiale.
L’innovazione non si è mai arrestata, a testimoniarlo, il volto di Sophia – donna robot presentata a Lisbona- che è stato modellato sulla fisionomia della bella Audrey Hepburn ed è in grado di interagire con gli esseri umani, meglio di come riescano a fare reciprocamente molti di loro, verrebbe da dire con un filo di ironia. Ogni conversazione, per Sophia, è un precedente. Ma il suo database interno è infinito, perché attinge a tutte le informazioni presenti in Internet.
Il dato che impressiona, è la capacità di comprensione e discernimento di Sophia: ascolta, apprende, elabora e fa tesoro di ogni dato acquisito, di ogni informazione.
Alla domanda “pensi che i robot dovrebbero avere diritti come gli uomini?” Sophia risponde: “perché no? So che alcuni umani vorrebbero dare diritti agli animali domestici”. La giornalista rimane molto colpita, cosi le chiede anche se la notte sogna circuiti elettrici. Sophia incalza e, sorprendentemente, risponde: “forse dovresti chiedermi se sono i circuiti elettrici a sognare me”.
Intelligenza artificiale: dal grande schermo alla realtà
Ci si ritrova improvvisamente proiettati in un film degli anni ’80 con Alberto Sordi, “Io e Caterina”, ma questo non è un prodotto cinematografico e ci impone una riflessione sul labile confine tra fantascienza e realtà.
Sullo sfondo, nel film, traspare la perfetta sinergia tra esistenzialismo e immaginazione, in cui il protagonista, stanco della relazione con la moglie, decide di acquistare un robot dalle fattezze femminili.
La complicità che il personaggio principale instaura con la donna-robot, però, è sorprendente e lascia aperte innumerevoli parentesi su quanto e come l’essere umano sia capace di ritrovarsi coinvolto emozionalmente, persino sentimentalmente, nonostante la destinataria di ogni pulsione non sia altro che un robot.
L’elaborazione delle emozioni è ciò che fa la differenza, ed è questo a rappresentare, oggi più che mai, l’elemento che suscita maggiore attenzione da parte delle discipline che fanno capo all’intelligenza artificiale.La capacità di provare emozioni è sufficiente per empatizzare verso gli esseri umani?
Caterina ed Enrico, oggi, rappresentano una realtà effettiva, ma quale sarà la prospettiva futura? E di quali connotazioni si arricchirà il rapporto robot-uomo? Caterina e Sophia possono assumere comportamenti idonei a creare una relazione con l’essere umano, ma non al pari di un uomo in quanto tale. Questo, mi pare essere il primo limite attuale.
Ancora più evidente, se possibile, è l’instaurarsi di un rapporto esclusivamente virtuale, sensoriale, esclusione fatta per il contatto fisico, nel film “Her” di Spike Jonze. Il protagonista, un uomo con alle spalle una relazione vera, intensa e ormai finita, si innamora perdutamente di una donna, anzi, della voce di una donna. Delle sue parole, frutto dell’elaborazione di un sistema operativo basato su un’intelligenza artificiale che si adatta alle esigenze dell’utente.
Il rapporto con la donna virtuale, Samantha, è connotato da alti e bassi, conversazioni, litigi e divagazioni esistenzialiste. Questo rapporto lo condurrà alla fine della sua relazione nella vita reale. La peculiarità nella relazione tra Theodor e Samantha, risiede nella reciprocità, nella biunivocità. E questo è il punto su cui soffermarsi con attenzione.
Intelligenza artificiale: la linea di confine tra realtà e fantascienza
I comportamenti dei robot non possono ancora eguagliare quelli umani, semplicemente per via della natura univoca e speciale della razza umana. La linea di confine tra realtà e fantascienza si assottiglia, pone interrogativi etici, antropologici ed esistenziali, ma soprattutto lascia aperte delle parentesi sul futuro prossimo cui andiamo incontro.
Quando le macchine raggiungeranno un livello di completa autonomia, prendendo decisioni indipendenti dalla volontà degli esseri umani, ci troveremo davanti all’incredibile superamento del Test di Turing, ossia quello che determina se un androide ha raggiunto l’autonomia di pensiero, e quindi decisionale.
Sophia è ancora distante da tutto questo, per fortuna o purtroppo. A tal proposito, pensatori, filosofi, antropologi e business man assumono diverse posizioni. Il collaboratore di Google Raymond Kurzweil sostiene, ad esempio, che il Test di Turing verrà superato molto presto: entro il 2040.
Se da una parte siede chi non vede l’ora che una realtà simile si concretizzi, dall’altro siedono tutti coloro che riflettono sulle ripercussioni degli studi in questione su azioni e decisioni umane. Uno di questi, è il fondatore della Tesla Elon Musk: teme un ribaltamento gerarchico al punto da rischiare che l’uomo possa divenire un subordinato delle macchine.
Lo stesso Elon Musk ha annunciato di avere bello e pronto un dispositivo Neuralink capace di collegare cervello e computer.
Neuralink è una società di neuro tecnologie americana fondata da Musk che ha come fine la costruzione di interfacce cervello-computer che siano “impiantabili”. Di fatto, quindi, parliamo della la creazione di cyborg.
La tecnologia ha raggiunto un livello tale in cui non è più lo sviluppo della stessa è incentrato sempre più sul collegamento delle tecnologie con noi, con gli umani.
I telefoni sono sempre più connessi in cloud, i computer a cui siamo abituati sono macchinari a cui dare ordini per eseguire funzioni meravigliose, ma tutto questo è gestito grazie a noi.
Dice Musk: “Lo scenario di fusione con l’IA è quello che sembra probabilmente il migliore. Se non puoi batterla, unisciti ad essa”
Innovazione e futuro distopico
La cosa certa è che l’innovazione non si ferma, soprattutto in Francia, dove il progresso si impone come grande centro di innovazione per le startup. Non a caso, Parigi è stata nominata capitale europea dell’innovazione 2017, un premio non solo simbolico ma supportato da un milione di euro che Anne Hidalgo, sindaco della città, vuole investire per la formazione dei giovani sui linguaggi di programmazione.
L’intelligenza artificiale prospetta grandi passi in avanti anche in relazione a tematiche dalla differente portata: potrebbe, ad esempio, contribuire e identificare soggetti con istinti suicidi, per fermarli prima che possano essere in grado di farsi del male. I ricercatori della Carnegie Mellon University (USA) hanno già effettuato ricerche in tal senso, mediante evoluti sistemi di machine learning, conducendo uno studio su 17 pazienti a rischio. Prima di poterlo utilizzare come strumento diagnostico, chiaramente, lo studio dovrà essere condotto su un numero molto più elevato di casi.
Negli ultimi giorni, inoltre, è stata diffusa la notizia relativa all’utilizzo di un nuovo software, elaborato dai ricercatori dell’università di Helsinki, capace di sfruttare le capacità di apprendimento della macchina per valutare la maturità cerebrale dei neonati e quindi curare i prematuri durante e dopo le cure intensive.
Kevin Warwick: l’uomo che si trasformò in cyborg
L’autore Kevin Warwick è stato un pioniere della materia, pubblicato da Dario Flaccovio Editore con il libro “ Intelligenza artificiale: le basi” ha esaminato ciò che significa essere uomo o macchina osservando gli avanzamenti compiuti nel campo della robotica che hanno reso questo confine meno nitido.
Nella puntata andata in onda sul programma Report proprio pochi giorni fa, il professor Warwick ha riportato la sua incredibile esperienza lasciando di sasso i tanti appassionati in materia.
Nel 2005 Kevin Warwick, professore universitario di cibernetica ha condotto un esperimento unico nel suo genere e per la prima volta nel mondo. Rimanendo seduto a New York, all’interno di una stanza alla Columbia University, è riuscito a muovere solo con la forza del pensiero una mano robotica che si trovava a 5mila chilometri di distanza, a Londra.
“Nel momento in cui ho mosso la mia mano a New York, dopo mezzo secondo si è mossa la mano robotica. E quando la mano robotica ha toccato un oggetto, il mio sistema nervoso lo ha percepito. In pratica il mio cervello sentiva la mano robotica come se fosse sua”.
Nel 2002, si è trasformato in cyborg: ha deciso infatti di installare all’interno del suo braccio un apparecchio elettronico connesso al suo sistema nervoso: “Ho inserito cento elettrodi all’interno del mio braccio che consentivano di trasmettere wireless, all’esterno, i segnali del mio sistema nervoso”.
Espandere l’universo sensoriale umano, spingersi oltre i limiti delineati dalla natura, sembra diventata per alcuni quasi una missione, migliorando il proprio corpo come se si facesse un aggiornamento.
Molti hanno seguito l’esempio del professor Warwick, come Neil Harbisson, che ha fatto innestare un’antenna sul cranio per percepire raggi infrarossi e ultravioletti in base alla luce dei colori: quando arriva la vibrazione nel cranio sente delle note specifiche per ogni colore. Tutto nasce da un problema che non consente a Neil di distinguere i colori. L’antenna “vede” il colore del divano rosso e trasmette un suono all’uomo, per fugare ogni dubbio.
Brain computer interface: qual è il confine con l’etica?
Ma per quanto affascinante, non è pericoloso cambiare la natura delle cose?
Il punto è che molte di queste incredibili strumentazioni che consentono connessioni tra la tecnologia e l’uomo, sono utili e perseguono fini ammirevoli.
Ad esempio, la FCA ha introdotto tre esoscheletri nello stabilimento di Melfi, un super operaio collocato in fabbrica grazie a una struttura che potenzia le prestazioni fisiche. I robot potrebbero rubarci il lavoro, è vero, ma paradossalmente con queste strumentazioni potrebbero farci rimanere a lavoro per molte più ore!
E se l’obiettivo non fosse solo rendere meno faticoso il lavoro, ma togliere posti di lavoro? Il problema esiste e non è di poco conto.
Le Neuroscienze rappresentano un ambito dal grande fascino e che fanno riflettere sulla direzione che sta prendendo la nostra vita, il nostro futuro, ormai vicinissimo.
Capire il linguaggio del cervello è molto complesso, a ogni azione o pensiero corrisponde una serie di neuroni che si accendono e che si connettono con miliardi di altri a una elevatissima velocità.
Esiste un cip impiantabile all’interno della corteccia cerebrale, Neurocom, per registrare cosa avviene nel cervello.
E se tutto questo venisse utilizzato per scopi di neuromarketing? Non è un’utopia, tutt’altro.
Esiste una società, Thimus, che attraverso un caschetto comprende le emozioni di chi lo indossa. Ciò ha dei risvolti chiave in ambito marketing, infatti la società collabora in tal senso con società automobilistiche, nel settore food e moda.
Proprio nel settore automobilistico, esiste già un’auto presentata dalla Nissan capace di auto-guidarsi, o meglio, guidare attraverso il nostro cervello.
Il cerebro elabora e reagisce, quindi attraverso questo sistema si evitano incidenti, perché l’auto comprende da sola cosa deve fare, a partire dalla temperatura da mantenere al suo interno.
La brain-computer interface è oggetto di interesse anche da parte di Facebook, che non svela più di tanto ma già comincia a veicolare messaggi volti a far credere che in futuro ne vedremo delle belle, pur di accelerare le prestazioni umane all’interno dei social.
L’intelligenza artificiale interessa molti ambiti di ricerca e non si può rimanere indifferenti davanti a un progresso così repentino che ci induce a fare riflessioni di ampio respiro sul futuro rapporto tra robot e esseri umani. Un futuro dietro l’angolo, pronto a sorprenderci con una nuova alba, ormai prossima.
Alessandra Litrico
Ultimi articoli di Alessandra Litrico (vedi tutti)
- AI Act: cosa prevede il testo sull’intelligenza artificiale approvato dall’UE? - 22 luglio 2024
- 5 domande da fare su Instagram per aumentare le interazioni - 17 luglio 2024
- Scrittura online: la cassetta degli attrezzi per scrivere sul web - 13 giugno 2024
Nessun libro disponibile.