Definire che cos’è l’intelligenza artificiale non è semplice. In parole povere è l’abilità che possiede un computer di svolgere azioni e ragionamenti tipici della mente umana. Non esiste, però, ancora una definizione specifica e universale, perché l’AI è un settore estremamente recente e tuttora in fortissima evoluzione. Ad oggi questo tipo di tecnologia riesce perfino ad affrontare discorsi con l’umano; non solo, ma riesce anche a vincere a tornei di dama. In questi mesi Cambridge Consultants, in collaborazione con NetApp e Nvidia, ha sviluppato un’IA capace di prendere decisioni e di cambiarle se sono sbagliate.
Per testare questo progetto, i ricercatori hanno messo alla prova il programma facendogli affrontare una partita a Pac-Man, e hanno dimostrato che ad ogni partita persa il robot assimilava dati per non ripetere lo stesso errore. Da queste ricerche si potrebbe pensare che l’intelligenza artificiale non sia perfetta, ma che essa possa migliorare, correggendo autonomamente gli errori. Purtroppo non è così semplice come si pensa. L’IA per essere “perfetta” deve ricevere un buon insegnamento, non solo per funzionare in maniera analoga con l’uomo ma anche per non avere problemi psicologici e non mettere in pericolo l’uomo. Ad affermare ciò è un approfondito studio del MIT di Boston, che ha evidenziato come l’intelligenza artificiale cresce in base all’insegnamento che riceve dall’intelligenza umana.
Il primo robot dotato di IA distorta è stato battezzato col nome di Norman, come Norman Bates, il celebre killer del film di Alfred Hitchcock “Psycho”. Norman ha affrontato il test di Rorschach, una serie di quesiti di personalità condotti dagli psicologi, basati sull’interpretazione di macchie di inchiostro; successivamente le sue risposte sono state confrontate con quelle di un’ingenua intelligenza artificiale. I risultati hanno lasciato tutti sconcertati. Una delle varie immagini che sono state presentate a Norman è una semplicissima macchia grigia, e questa è stata la sua risposta: “un uomo ucciso da una mitragliatrice in pieno giorno”. La stessa immagine è stata presentata a un’intelligenza artificiale educata in modo corretto e ha risposto di aver visto un guantone da baseball in bianco e nero.
L’IA di Norman sembrerebbe quindi manifestare disturbi mentali tipici della psicopatia, come ad esempio la carenza di empatia, l’inganno e la paranoia. Il test mostra quali pericoli si possono verificare se l’intelligenza artificiale venisse data in mani sbagliate. Il problema, secondo i ricercatori, non sono i programmi in sé, ma i dati che vengono loro forniti. Ad una conferenza Lyad Rahwan, professore associato del MIT, ha affermato che gli ingegneri devono trovare un modo per bilanciare i dati rendendo il comportamento delle macchine uguale a quello di un umano senza patologie psicologiche. Concludendo, il professore ha detto che Norman non è solo un test eseguito in laboratorio, ma un forte avviso, in quanto è assolutamente necessario definire dei principi etici, chiari e universali che guidino lo sviluppo di soluzioni dell’AI, per evitare che macchine, robot e tecnologie autonome non mettano a rischio la vita dell’uomo.
Possiamo quindi dire che l’intelligenza artificiale può dare un grande aiuto all’uomo nella vita di tutti i giorni, ma può essere utile quanto fatale se usata nel modo sbagliato.
Lascia un commento