Il Consiglio Ue ha dato il via libera definitivo alle prime norme al mondo sull'intelligenza artificiale che mira a promuovere lo sviluppo e l'adozione di sistemi sicuri e affidabili nel mercato unico da parte di attori sia pubblici che privati.
Il Consiglio Ue ha dato il via libera definitivo alle prime norme al mondo sull'intelligenza artificiale che mira a promuovere lo sviluppo e l'adozione di sistemi sicuri e affidabili nel mercato unico da parte di attori sia pubblici che privati. Allo stesso tempo, mira a garantire il rispetto dei diritti fondamentali dei cittadini e a stimolare gli investimenti e l'innovazione nel campo dell'intelligenza artificiale in Europa.
La legge si applica solo ad ambiti soggetti al diritto Ue e prevede esenzioni, ad esempio, per i sistemi utilizzati esclusivamente per scopi militari e di difesa, nonché per scopi di ricerca. L'atto legislativo sarà pubblicato nei prossimi giorni sulla Gazzetta Ufficiale ed entrerà in vigore venti giorni dopo. Il regolamento si applicherà due anni dopo la sua entrata in vigore, con alcune eccezioni per disposizioni specifiche. La nuova legge classifica diversi tipi di intelligenza artificiale in base al rischio. I sistemi di intelligenza artificiale che presentano solo un rischio limitato sarebbero soggetti a obblighi di trasparenza molto leggeri, mentre i sistemi ad alto rischio sarebbero autorizzati, ma soggetti a una serie di requisiti e obblighi per ottenere l'accesso al mercato unico. I sistemi di intelligenza artificiale come, ad esempio, la manipolazione cognitivo comportamentale e il punteggio sociale saranno banditi perché il loro rischio è ritenuto inaccettabile. La legge vieta inoltre l'uso dell'intelligenza artificiale per attività di 'polizia predittiva' basata sulla profilazione e sistemi che utilizzano dati biometrici per classificare le persone in base a categorie specifiche come razza, religione o orientamento sessuale.
La legge affronta anche l'uso di modelli di intelligenza artificiale per scopi generali. Quelli che non presentano rischi sistemici saranno soggetti ad alcuni requisiti limitati, ad esempio per quanto riguarda la trasparenza, ma quelli con rischi sistemici dovranno rispettare regole più severe. Per garantire una corretta applicazione, vengono istituiti diversi organi di governo: un ufficio specifico all'interno della Commissione per far rispettare le regole comuni in tutta la Ue; un panel scientifico di esperti indipendenti a supporto delle attività di contrasto; un comitato con rappresentanti degli stati membri per consigliare e assistere la Commissione e gli stati membri nell'applicazione coerente ed efficace della legge; un forum consultivo per le parti interessate per fornire competenze tecniche al comitato Intelligenza artificiale e alla Commissione.
Le sanzioni per le violazioni del regolamento sono fissate in percentuale del fatturato annuo globale dell'azienda colpevole nell'anno finanziario precedente o in un importo predeterminato, a seconda di quale sia il più elevato. Le pmi e le start-up sono soggette a sanzioni amministrative proporzionali.
Prima che un sistema di intelligenza artificiale ad alto rischio venga utilizzato da alcuni enti che forniscono servizi pubblici, sarà necessario valutarne l'impatto sui diritti fondamentali. Il regolamento prevede inoltre una maggiore trasparenza per quanto riguarda lo sviluppo e l'uso di sistemi ad alto rischio. I sistemi ad alto rischio, così come alcuni dei loro utenti che sono enti pubblici, dovranno essere registrati nella banca dati Ue e gli utenti di un sistema di riconoscimento delle emozioni dovranno informare i naturali persone quando sono esposte a tale sistema.