Intelligenza artificiale: rischi e utopie – Intervista a Leonardo Gabrielli

In occasione dell’incontro presso la sede dell’Ambasciata dei Diritti di Ancona all’interno del festival ‘Frontiere e resistenze’

In occasione del festival ‘Frontiere e Resistenze’ si è tenuto all’Ambasciata dei Diritti di Ancona un incontro con Leonardo Gabrielli, docente e ricercatore dell’Università Politecnica delle Marche su rischi e utopie dell’intelligenza artificiale.

L’intelligenza artificiale è stata teorizzata negli anni ’50 ma è solo da qualche anno che, grazie all’enorme aumento della potenza di calcolo a disposizione, iniziano a prendere forma implementazioni concrete ed utilizzabili. Lasciando per il momento da parte aspetti legati ai rischi futuri di “singolarità tecnologica”, già da oggi ci troviamo davanti a quesiti e problematiche che è indispensabile affrontare fin da subito.

Da qualche settimana l’Unione Europea ha approvato un documento per tentare di regolamentare l’uso di questi sistemi (AI Act) che dovrebbe approdare ad una legge nei prossimi anni. Il documento classifica le intelligenze artificiali in base al rischio di creare danni all’uomo: ad esempio, AI applicate a videogiochi o a ricerche di ristoranti vengono considerate innocue e quindi sono permesse, poi ci sono altri tipi di AI usate ad esempio per la selezione del personale o per la concessione di mutui che hanno un impatto sociale profondo e sono ammesse solo nel caso in cui se ne garantisca la trasparenza nel funzionamento e nei dati usati per l’apprendimento.

L’uso più rischioso è quello collegato all’ambito della sicurezza, al settore militare e alla polizia preventiva, che viene permesso solo in alcuni casi come ad esempio in caso di gravi minacce terroristiche o traffico di esseri umani. E’ evidente la criticità di questo tipo di approccio che in sostanza ne consente l’uso anche per gli impieghi più rischiosi (seppure con alcune limitazioni) permettendo di fatto l’implementazione delle infrastrutture tecnologiche che in futuro potrebbero essere usate anche per altri scopi.

Alcuni sistemi di AI sono già usati alle frontiere, ad esempio come ‘macchina della verità’: quando si pone una domanda ad un ‘soggetto sospetto’, a seconda della reazione emotiva, l’AI sentenzierà ad esempio, se questa persona sta mentendo su provenienza, età o motivo di passaggio alla frontiera. Si mette quindi in mano dell’intelligenza artificiale la facoltà di decidere sulla vita di una persona, ma ciò che occorre tenere presente, oltre ai problemi di garanzia del diritto, è che i sistemi di AI sbagliano, hanno una percentuale d’errore intrinseca che non potrà mai essere eliminata a differenza del software tradizionale che invece agisce in maniera deterministica.

L’impatto sul lavoro è impressionante perché l’intelligenza artificiale porta alla meccanizzazione e alla sterilizzazione di certe tipologie di lavoro, anche nelle professioni intellettuali. La dinamica è simile a ciò che è accaduto nei processi di automazione sul lavoro: le ricadute positive avrebbero potuto portare a vantaggi per la collettività in termini ad esempio di riduzione degli orari di lavoro, ma è stata invece sfruttata solo a vantaggio del capitale per ridurre il costo della mandopera.

Il primo caso di effetto sul lavoro risale al 1999, quando Amazon licenziò qualche centinaio di persone, impiegate nella scrittura di recensioni sui libri in vendita, vennero sostituite da un piccolo sistema di intelligenza artificiale addestrato a evidenziare i libri che ricevevano maggiore interesse dai naviganti. Quindi la sostituzione sul posto di lavoro non è un problema che nasce oggi.

Altro esempio è lo sciopero negli USA durato tutta la scorsa estate, di attori e sceneggiatori che chiedevano tutele perché di fronte a intelligenze artificiali che scrivono copioni e creano attori virtuali, si corre il rischio di eliminare il ruolo umano da queste professioni.

Ma l’aspetto più serio e preoccupante è che al momento le AI sono totalmente in mano al settore privato in quanto l’elemento fondamentale che fa la differenza in questo tipo di tecnologie sono i dati con i quali le si addestra, sia in termini quantitativi che qualitativi. Dati che solo le Big Tech hanno a disposizione, in maniera più o meno lecita. Occorre tenere presente che è principalmente l’addestramento che ne determina il comportamento e se l’unico obbiettivo è la massimizzazione dei profitti ci troviamo di fronte ad un problema estremamente serio.

  • Ascolta l’intervista a Leonardo Gabrielli, docente Univpm

Eventi in programma