Riusciremo davvero a regolamentare l'intelligenza artificiale?
Cosa c’è nell’AI Act e in quale contesto è nato
18 Dicembre 2023
Di recente il Parlamento e il Consiglio dell’Unione Europea hanno trovato un accordo che consentirà presto di arrivare alla prima legge al mondo in grado di regolamentare l’intelligenza artificiale. Si tratta del cosiddetto AI Act, che nella sua versione definitiva disciplinerà lo sviluppo e l’utilizzo dei sistemi di intelligenza artificiale, con l’obiettivo di tutelare la privacy dei cittadini. Pur senza frenare il potenziale innovativo e la crescita del settore, l’Unione europea è la prima istituzione ad adottare uno strumento giuridico di questo tipo – l’accordo è stato definito «storico» dal Commissario al mercato interno, Thierry Breton. L’iniziativa europea copre una vasta gamma di ambiti e applicazioni dell’AI, dagli algoritmi che fanno funzionare le automobili a guida autonoma alla disinformazione online, passando per i sistemi su cui si basano strumenti come ChatGPT o quelli che regolano le nuove assunzioni di personale. Uno dei temi centrali dell’accordo è legato ai sistemi per il riconoscimento facciale delle telecamere di sicurezza. Diversi Paesi erano a favore di misure molto restrittive, per evitare il rischio di schedature di massa, mentre Italia, Ungheria e Francia hanno sostenuto una posizione più permissiva. La pratica è stata però vietata del tutto, ad eccezione di casi specifici – come la minaccia terroristica o la ricerca di vittime. Ma il regolamento prevede ulteriori divieti nell’uso dell’AI, come il riconoscimento delle emozioni sul posto di lavoro e nelle scuole, o il calcolo del “punteggio sociale” degli individui. In questo caso a ogni cittadino vengono assegnati punti in base ai propri comportamenti, che – a differenza di chi ha punteggi bassi – consentono di accedere a determinati servizi. Una pratica, questa, comune in Cina – Paese che non si pone problemi di etica nel campo dell’intelligenza artificiale – e che ben rappresenta i risvolti più pericolosi e distopici dell’uso incontrollato dei sistemi di AI.
In quale contesto si inserisce l’AI Act
@torcha L’Europa avrà il suo AI Act, la prima legge al mondo per regolamentare lo sviluppo e l’utilizzo dei sistemi di intelligenza artificiale. Questo documento dovrà indicare gli usi dell'intelligenza artificiale per tutelare la privacy e gli altri diritti dei cittadini europei. Adesso il testo sarà affinato dai tecnici e non c’è ancora una data ufficiale della sua entrata in vigore. In particolare, il riconoscimento biometrico, ovvero l'insieme di sistemi per riconoscere le persone con telecamere di sicurezza, è statio uno dei punti più discussi. Secondo le ultime decisioni il riconoscimento facciale è stato vietato, ad eccezione di tre casi: l’evidente minaccia di un attacco terroristico, la ricerca di vittime, le indagini che riguardano reati gravi come omicidi, sequestri, violenza sessuale. Ma cosa ne pensano gli altri Paesi del suo utilizzo? La Cina ha cercato nel tempo di regolamentare gli usi dell'AI. La Cyberspace Administration of China (il principale sistema di controllo e censura di Internet del Paese ) ha pubblicato una serie di linee guida per regolamentare il settore dell'intelligenza artificiale generativa. Si è parlato anche dei sistemi biometrici, ma le norme più stringenti sono rivolte unicamente ai privati, mentre mancano limiti o restrizioni per le autorità pubbliche. L’unica nuova disposizione generale dispone il semplice obbligo di segnalare ogni occasione in cui viene utilizzato il riconoscimento facciale, comprese quindi anche piazze o uffici pubblici #AI #intelligenzaartificiale #Ue #legge #aiact #unioneuropea #act #thereiruinedit #devileyes #sometimes #canirobot #cina #china #greenscreen Devil Eyes - There I Ruined It
La proposta dell' AI Act era stata presentata dalla Commissione europea già nel 2021. Dopo aver trovato l’accordo politico, il testo sarà affinato dai tecnici chiamati a scrivere la versione definitiva della legge, che dovrà poi essere nuovamente approvata in via definitiva. Arrivare al solo accordo politico ha richiesto valutazioni e negoziati molto lunghi, anche a causa del fatto che quello dell’intelligenza artificiale è un campo in piena espansione e dai contorni ancora sfumati. Il settore, sintetizzando molto, si divide tra chi ritiene che uno sviluppo incontrollato dell’AI finisca per danneggiare l’umanità, e chi invece sostiene che regolamentarla eccessivamente limiterebbe il suo ruolo cruciale nel garantirci un futuro migliore. La recente crisi di OpenAI, la società dietro ChatGPT, che ha licenziato e poi riassunto il suo CEO Sam Altman, riflette le notevoli divisioni all’interno dell’azienda tra queste due fazioni culturalmente diverse. La tensione tra “ottimisti” e “pessimisti”, se così si possono definire, non è una novità in questo ambito. La stessa OpenAI nacque in origine come una no-profit che avrebbe dovuto favorire uno sviluppo dell’AI in modo cauto e trasparente, distinguendosi da realtà come Google, i cui veloci progressi nel settore allarmavano gli addetti ai lavori.
It's great that #AIAct has reached a political agreement. But I would have loved to hear/read its latest discussions in a public space -- instead of relying on tweets or status updates on private platforms.
— Elisabetta Biasin (@bisilisib) December 11, 2023
We deserve more transparency in the approval process of EU laws
Lo stesso Altman negli ultimi mesi ha fatto diverse dichiarazioni preoccupate sui possibili effetti futuri dell’IA. È stato ad esempio tra i firmatari di una lettera aperta, che invitava a «mitigare i rischi dell’estinzione dell’umanità a causa di dell’intelligenza artificiale» e a concepire questi sistemi come «una priorità globale insieme agli altri rischi di scala sociale, come le pandemie e la guerra nucleare». Nella medesima direzione si è mosso Elon Musk, in un’altra lettera aperta che chiedeva una pausa di almeno sei mesi nello sviluppo di tecnologie simili. A pubblicarla è stato il Future of Life Institute, associazione che ha l’obiettivo di «guidare la tecnologia trasformativa a vantaggio della vita e lontano dai rischi estremi su larga scala». Grazie al diffondersi delle strutture adatte e alla crescente disponibilità di big data, i costi dell’intelligenza artificiale diminuiscono, gli ambiti di applicazione aumentano e cresce il numero delle realtà attive nel settore, o che semplicemente sfruttano tali tecnologie.
Questa escalation ha attirato gli interessi e gli investimenti di molti soggetti imprenditoriali, ma ha anche contribuito a radicalizzare le opinioni degli addetti ai lavori. La conseguenza più diretta è l’abbandono dell’atteggiamento più cauto ed etico legato al progresso nel campo dell’IA, accusato di frenare gli investimenti fatti e, indirettamente, il futuro stesso dell’umanità. Questo scenario si stava palesando, almeno nel nostro continente, in assenza di qualsiasi normativa in merito, emessa da governi nazionali o da organizzazioni internazionali. L’Europa, proprio perché l'intelligenza artificiale è il business più discusso e al tempo stesso attraente di oggi, ha scelto di cambiare rotta e di iniziare a regolamentare il settore.