Accredia / Norme e Leggi / Macchine e Intelligenza Artificiale: i nuovi Regolamenti europei

Macchine e Intelligenza Artificiale: i nuovi Regolamenti europei

Punto Normativo
03 luglio 2023

Disposizioni che interessano l’Infrastruttura per la Qualità:

  • Macchine – Regolamento UE 2023/1230
  • Intelligenza Artificiale – Proposta di Regolamento UE

 


Macchine – Regolamento UE 2023/1230


E’ stato pubblicato (GU UE L 165 del 29 giugno scorso) il Regolamento relativo alle macchine e che abroga la direttiva 2006/42/CE del Parlamento europeo e del Consiglio e la direttiva 73/361/CEE del Consiglio, che stabilisce i requisiti di sicurezza e di tutela della salute per la progettazione e la costruzione di macchine, prodotti correlati e quasi-macchine. L’obiettivo è consentire la messa a disposizione sul mercato o messa in servizio delle macchine, garantendo un livello elevato di tutela della salute e sicurezza delle persone, in particolare dei consumatori e degli utilizzatori professionali, degli animali domestici nonché di tutela dei beni e dell’ambiente.

Le disposizioni si applicheranno alle seguenti macchine e prodotti correlati:

  1. a) attrezzature intercambiabili
  2. b) componenti di sicurezza
  3. c) accessori di sollevamento
  4. d) catene, funi e cinghie
  5. e) dispositivi amovibili di trasmissione meccanica.

Il Regolamento riguarderà anche le cosiddette quasi macchine: “un insieme che non costituisce ancora una macchina in quanto, da solo, non è in grado di eseguire un’applicazione specifica e che è soltanto destinato a essere incorporato o assemblato ad altre macchine o ad altre quasi-macchine o apparecchi per costituire una macchina”. Non si applicherà, invece, a una serie di tipologie di macchine (o relativi prodotti) elencate all’art. 2, comma 2 (ad esempio mezzi di trasporto per via aerea, armi, trattori agricoli, ecc.).

Rilevanti sono le norme riguardanti la valutazione della conformità, volta a dimostrare il rispetto dei requisiti essenziali di sicurezza e di tutela della salute previsti dal Regolamento. Per verificare i requisiti, il Regolamento prevede diverse procedure che si basano sul potenziale rischio per i cittadini derivante dall’utilizzo della macchina o di un prodotto ad esso connesso.

 

Organismi notificati

L’allegato I, parte A, elenca i prodotti che presentano un “potenziale rischio grave”, che soddisfano almeno una delle seguenti condizioni:

  1. a) non esistono norme armonizzate o specifiche comuni relative ai pertinenti requisiti essenziali di sicurezza e di tutela della salute
  2. b) esistono rischi residui, compresi quelli che, secondo il fabbricante, potrebbero essere ridotti attraverso una formazione particolare o un dispositivo di protezione individuale specifico, e i dati e le informazioni dimostrano il ripetersi di simili infortuni gravi o mortali o di danni alla salute connessi a tali rischi residui
  3. c) esistono dati e informazioni che, secondo la Commissione, dimostrano l’applicazione erronea ricorrente delle pertinenti norme armonizzate o delle specifiche comuni, in relazione alla quale le attività di vigilanza del mercato svolte non hanno determinato miglioramenti significativi della situazione del mercato in un periodo ragionevole
  4. d) esiste un grado di incertezza nei metodi di valutazione del rischio esistenti in relazione a nuove categorie di macchine o tecnologie.

Per queste macchine o prodotti correlati, la valutazione di conformità richiede l’intervento di un organismo notificato. Per essere notificato, l’organismo interessato può allegare un certificato di accreditamento che ne attesti la conformità ai requisiti previsti dal Regolamento. In assenza di un certificato di accreditamento, deve fornire tutte le prove documentali necessarie per dimostrare il rispetto di detti requisiti. L’organismo potrà eseguire le attività di un organismo notificato solo se la Commissione o gli Stati membri non solleveranno obiezioni entro due settimane dalla convalida della notifica – qualora essa includa un certificato di accreditamento – o entro due mesi dalla notifica in assenza di certificato di accreditamento.

 

Controlli interni

L’allegato I, parte B, comprende invece qualsiasi altra categoria di macchine o prodotti correlati che presenti un grave rischio potenziale intrinseco, ma non soddisfi una o più delle condizioni sopraelencate (lettera a-d).

Per queste macchine e prodotti si può ricorrere anche al controllo interno della produzione, purché il fabbricante progetti e costruisca la macchina “conformemente alle norme armonizzate o alle specifiche comuni proprie a tale categoria di macchine (o prodotti correlati) riguardanti tutti i pertinenti requisiti essenziali di sicurezza e di tutela della salute”. In tal caso, si può applicare la procedura di controllo interno (definita al modulo A dell’allegato VI), che si utilizza altresì per le macchine e i relativi prodotti non contenuti negli allegati ma oggetto del Regolamento.

Il Regolamento si applicherà nella sua interezza a decorrere dal 14 gennaio 2027. Le norme relative alla notifica degli organismi, tuttavia, si applicheranno dal 14 gennaio 2024.

 


Intelligenza Artificiale – Proposta di Regolamento UE


Il 14 giugno scorso il Parlamento europeo ha approvato la propria posizione in merito alla proposta di Regolamento sull’Intelligenza Artificiale ed è ora pronto ad avviare i negoziati con il Consiglio europeo per arrivare a un testo di compromesso.

 

Novità

Nuova definizione di “sistema di intelligenza artificiale” che, in base a quanto stabilito da un emendamento adottato, ricomprenderà ogni “sistema automatizzato progettato per operare con livelli di autonomia variabili e che, per obiettivi espliciti o impliciti, può generare output quali previsioni, raccomandazioni o decisioni che influenzano gli ambienti fisici o virtuali”.

Sistemi di intelligenza artificiale ad alto rischio ricadenti nell’allegato III (Biometria, Istruzione, Occupazione, gestione dei lavoratori, solo per citarne alcuni). Nel testo proposto dalla Commissione, tutti questi sistemi IA sono considerati ad alto rischio. Il Parlamento, invece, ha specificato che saranno considerati ad alto rischio i “sistemi di IA che rientrano in uno o più settori critici e casi d’uso di cui all’allegato III, se prestano un rischio significativo di danno per la salute umana, la sicurezza o i diritti fondamentali delle persone fisiche…”. Sarà la Commissione, sempre secondo la proposta del Parlamento, a fornire “orientamenti che specificano le circostanze in cui l’output dei sistemi di IA di cui all’allegato III comporterebbe un rischio significativo di danno…”.

 

Valutazione della conformità

Restano sostanzialmente invariate le disposizioni di cui all’art. 43 “valutazione della conformità”.

Per i sistemi di IA ad alto rischio relativi alla biometria, se il fornitore ha applicato le norme armonizzate o le specifiche comuni nel dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti previsti dal Regolamento, potrà scegliere se eseguire:

  • una procedura di valutazione della conformità interna (modulo VI)
  • la procedura di valutazione della conformità basata sulla valutazione del sistema di gestione della qualità e della documentazione tecnica, con il coinvolgimento di un organismo notificato, di cui all’allegato VII.

In caso di mancata o parziale applicazione delle norme armonizzate o delle specifiche comuni (o in assenza delle stesse), invece, il fornitore dovrà necessariamente ricorrere alla procedura di valutazione con un organismo notificato. Il fornitore potrà in ogni caso decidere di ricorrere a una valutazione di parte terza a prescindere dal grado di rischio.

 

Sistemi biometrici

Con riferimento alla biometria, il testo proposto dal Parlamento vieta “l’immissione sul mercato, la messa in servizio o l’uso di sistemi di categorizzazione biometrica che classificano le persone fisiche in base ad attributi o caratteristiche sensibili o protetti o basati sulla deduzione di tali attributi o caratteristiche”. Questi sistemi non potranno essere immessi sul mercato e non saranno soggetti alla procedura di valutazione di conformità.

Il divieto, tuttavia, non si applicherà ai sistemi di IA destinati a scopi terapeutici, approvati sulla base del consenso informato specifico delle persone che sono esposte a tali tecniche o, se del caso, del loro tutore legale.