L’umanizzazione dell’algoritmo

Benessere & Medicina

Ma il robot insiste: “Non credo tornerà a casa…”

Non è fantascienza, nemmeno uno scenario dal quale ci separa un ampio lasso di tempo perché è cosa certa che l’intelligenza artificiale (IA) avrà un ruolo sempre maggiore nella sanità del futuro. E non solo nella sanità perché i robot dotati di intelligenza artificiale sono in grado di migliorare la nostra quotidianità grazie all’interazione con gli esseri umani. La loro caratteristica è infatti quella di apprendere e di interagire con noi. “Umanoidi” è l’altro termine con cui sono definiti perché in grado di agire nei diversi ambiti della nostra vita, da quello chirurgico a quello protesico, dalla riabilitazione alla collaborazione nelle case di riposo, in scenari di emergenza e in ambienti ostili per l’uomo, nella pubblica amministrazione o in aziende pubbliche o private, e così via. A voler approfondire, in Italia abbiamo presenze importanti per lo sviluppo della robotica, come l’Istituto Italiano di Tecnologia (IIT), un’eccellenza internazionale che svolge attività di ricerca a livello interdisciplinare, visto che nella robotica confluiscono (convergono) ambiti diversi di ricerca: un robot infatti interagisce con l’ambiente grazie ad algoritmi su cui si sviluppa l’intelligenza artificiale.

La nostra esistenza futura sarà dunque sempre più affidata agli algoritmi. Occorre perciò riconfigurare il nostro futuro nel rapporto fra essere umano e intelligenza artificiale o intelligenza cognitiva. Compito non facile quello di stabilire i nuovi paradigmi di una relazione così complessa e prepararci ad organizzare l’esistenza dei prossimi anni. Occorre dunque riflettere fin d’ora per elaborare un modello di sviluppo di una società in cui la rigidità dell’algoritmo venga mitigata, quindi “umanizzata” se non vogliamo ripetere situazioni analoghe a quelle del Sig. Quintana. Questo l’intento del convegno su “Algoritmi, etica e diritto”, che si è svolto il 12 marzo scorso presso il Senato della Repubblica, organizzato con il supporto scientifico del Laboratorio CIRLab-Cyber Security and International Relations Laboratory del PIN (Polo Universitario “Città di Prato”).

La complessità della materia trattata è riflessa dal programma estremamente corposo, nel quale s’intrecciano competenze assai diversificate per poter discutere di una serie di questioni vitali quali ad es. a chi tocchi stabilire le regole etiche destinate ad orientare lo sviluppo e l’azione dell’intelligenza artificiale: ai singoli Stati, alla Comunità internazionale o al mercato; chi sia legittimato a costruire gli algoritmi che regoleranno le nostre esistenze e quali saranno le implicazioni sulla visione del nostro mondo; quali le conseguenze sui cittadini e nei processi decisionali; chi risponderà delle scelte e delle azioni condotte dall’algoritmo e quanto questo dovrà rispondere alle esigenze della trasparenza…

Per avere un’idea del numero di materie coinvolte basta dare un’occhiata al programma dal quale emergono personalità con competenze nei settori più disparati che vanno da quelli più strettamente scientifici (A. Cesta, ingegnere, dirigente di ricerca  dell’Istituto di Scienze e Tecnologie della Cognizione, nonché Vicepresidente dell’Associazione Italiana per l’Intelligenza Artificiale) a quelli accademici relativi a materie umanistiche e sociali (S. Cacciari, antropologo e insegnante presso il laboratorio di Cyber security e relazioni internazionali del Polo universitario “Città di Prato”; M. Fioravanti, Presidente del Polo Universitario Città di Prato; M. Luciani, ordinario di Diritto pubblico e costituzionale della Facoltà di Giurisprudenza dell’Università “Sapienza” di Roma; A. Gambino, ordinario di Diritto Privato dell’Università Europea di Roma; P. Benanti, Professore presso la Pontificia Università Gregoriana; B. Leucadito, ricercatrice di Filosofia del diritto dell’Università “Sapienza” di Roma; C. Agosti, Capo progetto ALEX dell’Università di Amsterdam); a personalità della politica e delle istituzioni (L. Attias, Commissario straordinario per l’attuazione dell’Agenda digitale; G. Scorza, responsabile del team per la trasformazione digitale della Presidenza del Consiglio dei Ministri; F. Marzano, Assessore Roma semplice; F. Martini, Assessore Comune di Livorno, G. Vianello, Deputato e componente Commissione ambiente, territorio e lavori pubblici);  a responsabili di aziende internazionali (F. Moioli, Direttore Divisione Enterprise Services di Microsoft Italia).

La vera natura del problema risiede proprio nella complessità della tematica e nella sua trasversalità, che esige l’associazione della cultura umanistica con quella   tecnologica – rileva il Prof. Gambino. Le intelligenze artificiali non sono infatti soggetti previsti dalla Carta costituzionale ma soggetti nati dal mercato. Decisioni elettroniche, automatiche, informatiche, prevarranno sempre più sul singolo. Benché la verità informatica per motivi di efficienza porti a soluzioni estremamente pratiche, i rapporti personali difficilmente riescono ad essere incasellati in un algoritmo. “Il nostro problema non sono le competenze, ma il bisogno della persona in quanto tale; dobbiamo andare verso la persona” è il commento del Prof. Fioravanti, che annuncia il varo di un corso di master nell’ambito del Polo Universitario Città di Prato, in cui convergeranno materie ingegneristiche, sociologiche e filosofiche, così da ottenere nuove figure professionali con competenze nelle scienze a contenuto altamente tecnologico e a carattere squisitamente umanistico.

Volendo in effetti approfondire, è recente l’annuncio del lancio a Londra di un corso di laurea misto in materie umanistiche e filosofiche. La “London Interdisciplinary School”, che ha fra i suoi sponsors gruppi come McKinsey e Virgin, punta a sviluppare le capacità di risolvere i problemi più importanti e complessi del mondo attuale attraverso figure professionali con capacità trasversali in ragione dell’insufficienza dei profili tecnici specializzati.

Ma se gli esiti dei software al servizio del pubblico sono destinati ad incidere in misura sempre maggiore sui diritti dei cittadini, dovremo volgerci verso un “algor-etica”, affinché la macchina sia sempre al servizio dell’uomo perché se l’algoritmo deve decidere per noi, è bene che siamo noi a mantenerne il controllo.

Viviana Iavicoli
Ricercatrice dell’Istituto di Studi Giuridici Internazionali (ISGI)
del Consiglio Nazionale delle Ricerche (CNR)