Proposta di Regolamento UE sull’intelligenza artificiale, audizione dell’europarlamentare Brando Benifei (PD) nelle commissioni riunite Trasporti e Attività produttive della Camera: IA sui luoghi di lavoro tema controverso, orientamento del PE coinvolgere sindacati e parti sociali

“Nel dibattito sulla proposta di Regolamento UE sull’intelligenza artificiale (IA) in sede europea, uno dei nodi più controversi è quello relativo all’utilizzo dell’IA sui luoghi di lavoro, che intendiamo inquadrare tra le fattispecie ad alto rischio per quanto riguarda la potenziale violazione di diritti. Il Parlamento europeo è orientato a prevedere nel Regolamento il coinvolgimento delle parti sociali e dei sindacati: abbiamo già oggi in Italia casi di multinazionali che negoziano con i sindacati sull’impiego di sistemi IA, ritengo che non sia possibile tagliarli fuori”. Lo ha detto oggi l’europarlamentare del PD Brando Benifei, membro della commissione Mercato interno del PE, durante l’audizione nelle commissioni riunite Trasporti e Attività produttive della Camera in merito alla proposta di Regolamento in tema IA, che i due gruppi di lavoro stanno esaminando in fase “ascendente” e su cui dovranno esprimere un parere consultivo non vincolante da inviare alla Commissione UE: l’espressione del parere non ha una scadenza ma secondo quanto suggerito da Benifei nel corso del suo intervento, quanto prima verrà consegnato tanto più potrà influire sull’elaborazione di proposte emendative al testo, che verranno presentate, ha fatto sapere, all’inizio di aprile. L’approvazione della prima posizione del PE sul testo, ha aggiunto, dovrebbe avvenire dopo l’estate, mentre perché la proposta diventi norma ci vorranno circa un anno e mezzo o due, tra il lavoro del Parlamento e il negoziato con la Commissione.

“Questo Regolamento”, ha proseguito Benifei, “è il tentativo di far sì che l‘evoluzione dell’IA rispetti le norme già esistenti da una parte e dall’altra di creare una normativa specifica per le problematiche che l’IA determina. L’approccio è quello di stabilire una graduatoria di rischio dei prodotti a intelligenza artificiale: prodotti a bassissimo rischio, prodotti che richiedono trasparenza tipo i sistemi automatici di servizio clienti e poi la regolamentazione degli usi dell’IA ad alto rischio, ovvero quelli che hanno a che fare con i diritti fondamentali delle persone (diritti sociali, status di cittadinanza, lavoro, sorveglianza biometrica, sistemi social scoring di punteggio ai cittadini). Su questo tema – ha spiegato – il dibattito pubblico è già avanzato e se ne parla molto anche in Italia. Cercheremo di calibrare il tutto al meglio“, ha rassicurato, “ad esempio la sorveglianza biometrica in tempo reale è vietata ma ci sono eccezioni per cui è consentita, come ragioni di sicurezza nazionale e pericolo di terrorismo”.

Rispondendo a un quesito della relatrice del testo Vincenza Bruno Bossio (PD), Benifei ha spiegato che il processo legislativo in atto in Europa sul tema IA “sta facendo un’opera di contemperamento che prevede l’incentivo alla creazione di spazi per la ricerca e la sperimentazione da parte di istituti e imprese affinché l’Europa non sia seconda a nessuno in termini di sviluppo delle tecnologie IA e che questo avvenga in un ambiente normativo facilitato: dobbiamo spingere la ricerca e lo sviluppo e favorire l’ingresso nel mercato di chi investe in IA. D’altra parte”, ha spiegato, ci deve essere una cornice normativa in grado di arginare gli aspetti negativi a cui questo settore è soggetto”.

E ancora: “C’è un tema per cui abbiamo avuto un confronto acceso con la Commissione UE: la vicepresidente Margareth Vestaager difende un approccio meno rigido per cui si potrebbe prevedere l’autocertificazione da parte di chi immette sul mercato prodotti IA ad alto rischio senza fare controlli ex ante. Come PE invece pensiamo che in certi casi siano necessarie forme di test ex ante sulla potenzialità di lesione dei diritti umani prima che i prodotti IA vengano immessi sul mercato. In Olanda“, ha citato a titolo di esempio Benifei, “sono stati scoperti – e questo ha comportato dimissioni da parte di ministri e altri problemi – algoritmi che assegnavano minori bisognosi di accoglienza alle famiglie che poi si sono scoperti avere falle di sistema che hanno messo a rischio la tutela dei bambini. Noi condividiamo”, ha concluso, “l’approccio che non intende introdurre eccessivi oneri in capo alle imprese, ma riteniamo che si debba approfondire come vengono sviluppati gli algoritmi, quali criteri antidiscriminatori vadano stabiliti per consentire che questi vengano immessi sul mercato e capire dove potrebbe essere necessaria qualche forma di test sui diritti umani“.

Condividi su:
Leggi altri articoli