di Carlo Parenti • L’intelligenza artificiale con le sue implicazioni etiche e pratiche è un tema vastissimo. Tra le sue applicazioni si annoverano i processi di robottizzazione. Si pensi alle macchine utensili intelligenti usate per la produzione di beni e agli assistenti virtuali (dai risponditori intelligenti nei call center ai veri e propri assistenti digitali tipo l’applicazione Siri di Apple o Cortana di Windows) . Si calcola che solo in Europa nel 2020 tutti questi robot comporteranno la perdita di cinque milioni di posti di lavoro. Poi si stanno approntando i sistemi di guida senza guidatore. E’ previsto che anche questi possano far diminuire la necessità, ad esempio, di tassisti e camionisti. L’auto autonoma per mezzo dell’intelligenza artificiale sarà in grado non solo di identificare pedoni, ciclisti, motocicli, auto, camion, ostacoli di tutti i tipi, segnaletica stradale, ma sarà anche capace di prevedere cosa accadrà nei momenti successivi a ogni singola rilevazione. Ad esempio la direzione di marcia di un pedone o di un auto, il parcheggio di un camion, la fermata di un bus. Non solo. Tutti questi tipi di sistemi svilupperanno, come nel nostro cervello, la capacità di imparare e di svilupparsi autonomamente.
Qui sta il punto più delicato dell’intera vicenda. Il nostro cervello apprende, sviluppa pensieri e soluzioni, crea innovazioni per mezzo di meccanismi ancora sconosciuti che si stima facciano ricorso a ben 700.000 chilometri di reti neurali, cioè di neuroni tra loro interconnessi, e a un milione di miliardi di sinapsi. Una sinapsi è una struttura altamente specializzata che consente la comunicazione delle cellule del tessuto nervoso tra loro (neuroni). Mentre è ipotizzabile che nell’intelligenza artificiale si possano creare reti molto lunghe di neuroni artificiali (che altro non sono che dei transistori), non si è al momento in grado di realizzare collegamenti complessi tra di loro. Nel cervello umano ci sono tra 10.000 e 100.000 sinapsi per neurone, mentre nell’intelligenza artificiale si arriva solo a 2 o 3 sinapsi per transistor. Son dati da far paura
E molta paura hanno i più eminenti fondatori di aziende di robotica e intelligenza artificiale. Ben 117 di loro, tra cui Elon Musk (il fondatore di Tesla che è molto avanti nella guida autonoma), hanno fatto un appello all’ONU chiedendo di bloccare la corsa agli armamenti autonomi, cioè i cosiddetti soldati-robot, per il timore di conflitti destabilizzati da queste tecnologie belliche, che considerano un pericolo per l’umanità. Costoro appartengono a 26 paesi e il loro appello è l’accorata reazione dell’industria dell’intelligenza artificiale alla notizia che il primo meeting del gruppo di esperti governativi (GGE) sui sistemi di armi letali autonome è stato rimandato a data da destinarsi. “Invitiamo i partecipanti ai lavori del GGE a sforzarsi di trovare modi per prevenire una corsa agli armamenti autonomi, per proteggere i civili dagli abusi e per evitare gli effetti destabilizzanti di queste tecnologie. Le armi letali autonome minacciano di essere la terza rivoluzione in campo militare. Una volta sviluppate, permetteranno ai conflitti armati di essere combattuti su una scala più grande che mai, e su scale temporali più veloci di quanto gli umani possano comprendere: sono armi che despoti e terroristi potrebbero rivolgere contro popoli innocenti, oltre che armi che gli hacker potrebbero riprogrammare per comportarsi in modi indesiderabili. Non abbiamo molto tempo per agire: una volta aperto il vaso di Pandora, sarà difficile richiuderlo“
Uno dei primi firmatari dell’appello, lo scienziato italiano Alberto Rizzoli (autore di un’App. che permette ai ciechi di fruire di descrizioni audio di ciò che il loro smartphone inquadra) ha spiegato al quotidiano La Repubblica del 21 Agosto u.s. i motivi dell’appello: “Se si usano i robot autonomi per le operazioni militari, il danno psicologico della guerra – pensiamo all’impatto sull’opinione pubblica della morte di un soldato – diventa un mero danno economico: la distruzione di un robot non è nulla di più che una perdita in un bilancio. Se si trattasse soltanto di robot contro robot, un conflitto sarebbe un’attività poco efficace, visto che è più semplice implementare delle sanzioni piuttosto che sprecare milioni di dollari in un “match” tra macchine intelligenti. Purtroppo è più probabile che i robot killer vengano utilizzati per attaccare esseri umani“. Inoltre visto che l’intelligenza artificiale odierna lavora come una piccola rete neurale c’è un pericolo: “Il problema è che le reti neurali sono probabilistiche di natura: un po’ come la mente umana, una volta addestrate non possono essere analizzate in dettaglio per capire esattamente perché hanno preso una decisione – magari letale – invece di un’altra. Il cervello di questi robot è una “scatola nera” che compie decisioni, a volte anche sbagliate, che ancora non riusciamo ad analizzare bene. Se un drone autonomo è dotato di armi, bisogna essere certi che non colpisca civili e innocenti, e bisogna che qualcuno sia legalmente responsabile per il suo operato: non si può dar la colpa a un algoritmo“. Anche per questo motivo è così nato l’appello per il bando di questi sistemi d’arma.
A chi fosse interessato ai temi della robotica in generale segnalo che il 31 agosto è uscito “I robot e noi” di Maria Chiara Carrozza, professore di Bioingegneria industriale alla Scuola Superiore Sant’Anna di Pisa. Il volume, edito da il Mulino, sarà presentato in occasione del primo Festival internazionale della robotica, in programma a Pisa dal 7 al 13 settembre. L’evento trasformerà la città nella capitale mondiale della robotica.