Negli ultimi anni ci sono stati diversi movimenti dalle parti di Mountain View, dove Google ha sede: per chi se lo fosse perso, nel 2012 Larry Page in persona ha assunto il pioniere Ray Kurzweil per “lavorare su un nuovo progetto che coinvolge l’apprendimento delle macchine e l’elaborazione del linguaggio” e per “rendere il linguaggio naturale comprensibile da Google”. A dicembre del 2013 Andy Rubin, cofondatore di Android, aveva svelato di voler introdurre robot umanoidi nella vita di tutti i giorni, ambizioso progetto a cui stava lavorando già da qualche tempo. Sempre nel 2013, la stessa Google aveva già rilevato otto aziende specializzate in intelligenza artificiale e robotica, tra queste, Boston Dynamics (fornitore ufficiale di cyborg militari per il Pentagono), vero e proprio colosso del settore. Un altro tassello importante è la collaborazione con la NASA, che ha portato prima al progetto SPHERES, piccoli robot a forma di sfera da inviare nello Spazio, e poi al computer quantico. A inizio 2014 poi Google ha messo a segno un nuovo colpo, acquisendo la britannica Deep Mind con un investimento di oltre 500 milioni di dollari. DeepMind è una compagnia londinese fondata nel 2010 dal neuro scienziato Demis Hassabis, dallo sviluppatore Jaan Tallin e dal ricercatore Shane Legg; l’azienda è altamente specializzata in deep learning, particolare branca dell’intelligenza artificiale che ultimamente sta attirando l’attenzione di parecchi grandi nomi della tecnologia contemporanea (sembra infatti che anche Facebook fosse interessata all’acquisizione). Cosa ci dice questo brevissimo excursus? Ci dice che Google sta lavorando a nuovi modelli tecnologici che coinvolgono intelligenze artificiali altamente sofisticate affacciandosi così sempre di più al mondo della robotica. Ma non stiamo parlando solo di Google, anche Facebook, Microsoft e Apple, negli ultimi anni hanno operato importanti investimenti per portare tra le proprie fila i migliori studiosi nell’ambito dell’apprendimento approfondito.
Ma cosa s’intende quando si parla di apprendimento approfondito o deep learning, per usare il termine inglese?
Breve excursus sulle intelligenze artificiali
Negli anni ’50 la ricerca sulle AI (intelligenze artificiali) erano agli inizi, si trattava (e in parte si tratta ancora) di un campo molto vasto e ancora inesplorato, alcuni ricercatori intrapresero l’audace studio delle reti neurali artificiali, modelli computazionali che imitano il funzionamento e finanche la struttura delle reti neurali del cervello umano. Le caratteristiche principali di questi modelli sono le straordinarie capacità di apprendere conoscenze durante una fase di addestramento e successivamente generalizzare queste conoscenze acquisite per prevedere situazioni nuove, esattamente come un cervello umano, ed esattamente come il cervello umano, la memoria interna di queste reti viene incrementata con l’esperienza. Una rete neurale artificiale è composta da unità interne collegate tra loro da molteplici connessioni: ogni unità equivale ad un neurone mentre le connessioni equivalgono alle sinapsi; le prime reti sviluppate negli anni ’50 erano molto semplici e i limiti delle tecnologie dell’epoca impedirono un approfondimento maggiore delle potenzialità di questa scienza.
Le ricerche ripresero verso la metà degli anni ’80, quando lo scienziato britannico Geoff Hinton e altri specialisti del settore iniziarono a studiare nuovi modelli di apprendimento più approfonditi. Si delinearono così i tratti tecnici principali del deep learning, ma anche qui la ricerca si scontrò presto con i limiti tecnologici e informatici del periodo storico.
La contemporaneità sembra essere il terreno più fertile per lo sviluppo di questa nuova scienza grazie all’enorme disponibilità di dati e alla grande potenza di calcolo delle macchine: ciò ha permesso la creazione di cervelli artificiali composti da milioni di unità di calcolo, e quindi con capacità di apprendimento largamente più vaste e più complesse, tuttavia queste reti non sono di facile gestione poiché richiedono computer molto potenti e tecniche di addestramento decisamente più sofisticate.
Usi e applicazioni
Ad oggi, l’apprendimento approfondito è stato utilizzato per sviluppare sistemi di riconoscimento vocale e visivo, ma l’obiettivo di Google è decisamente più ambizioso perché, con l’enorme quantità di dati ha sua disposizione su contenuti multimediali, luoghi geografici, e sugli stessi utenti, Big G è l’unica realtà a poter ambire alla costruzione di un cervello elettronico capace di interpretare il web in modo sufficientemente autonomo e, cosa più importante, a relazionarsi con esso con una precisione simile o addirittura superiore a quella degli stessi esseri umani.
Eppure anche Facebook sta implementando un impressionante sistema di intelligenza artificiale e il team preposto è impegnato costantemente nell’espansione dell’AI e nello studio di nuove applicazioni: al momento la struttura funziona grazie ad un cluster di GPU da 40 petaflops, un gruppo di processori che lavorano insieme, elaborando pressapoco 40 milioni di miliardi di operazioni al secondo. Questa AI è alla base di gran parte dell’esperienza presente su Facebook che, tra le altre cose, la utilizza per la traduzione dei post, la ricerca immagini, il riconoscimento avanzato di immagini e la classificazione dei video in tempo reale. Ultimamente la ricerca si sta concentrando prevalentemente sul testo, ancora considerato il mezzo di comunicazione più importante e per Facebook comprenderlo è fondamentale per fornire contenuti rilevanti e filtrare lo spam e ogni contenuto indesiderato.
Ecco quindi DeepText, il sistema di elaborazione del linguaggio creato dal team di Facebook, basato su tecniche di deep learning. Il sistema è programmato per comprendere l’argomento di un post e di conseguenza interpretare e cogliere il significato preciso delle parole che lo compongono, classificandole e registrando la relazione semantica tra loro, anche tra lingue diverse (ad esempio buon compleanno e happy birthday saranno classificate come due espressioni vicine tra loro, anche se in linguaggi differenti).
Microsoft, dal canto suo, ha approntato il fallimentare (o forse no…) esperimento TayTweets, il chatbot su Twitter programmato per assorbire i comportamenti degli utenti e per replicarli in modo da diventare sempre più realistico ma dopo sole 24 ore online, con quasi 100 mila follower e 22 mila tweet, il bot è passato da timida adolescente a misogina inneggiante all’operato di Hitler.
Altri esempi direttamente dalla vita di tutti i giorni, sono gli aiutanti Siri e Cortana, sebbene ancora distanti dalla concezione di AI che stanno venendo studiati al momento. Interessante anche l’esperimento Daddy’s Car portato avanti dal Sony Csl Research Laboratory, che ha creato la prima canzone interamente composta con l’intelligenza artificiale grazie al sistema di software Flow Machines che apprende in modo automatico gli spartiti e li processa.
Gli esempi sono innumerevoli ed in continuo aumento, dalle Google Car, allo speaker multifunzione Echo di Amazon, al Project Tango di Google, tanto che le cinque big della Silicon Valley: Google, Amazon, Facebook, IBM e Microsoft hanno avviato degli accordi per stabilire degli standard etici nello sviluppo delle Intelligenze Artificiali su cui tuttavia, al momento, non si conosce molto se non che lo scopo principale è “far sì che la ricerca sulle IA si focalizzi sul portare benefici per le persone”. È inevitabile pensare a cosa riserverà il futuro, senza farsi influenzare dagli scritti di Asimov o le visioni apocalittiche di Skynet o la propensione omicida di Hal 9000.
Lascia un commento