Per utilizzare questa funzionalità di condivisione sui social network è necessario accettare i cookie della categoria 'Marketing'
Crea PDF

Intelligenza Artificiale: legislazione restrittiva in UE?

Stretta dell'UE sull'Intelligenza Artificiale, dal riconoscimento biometrico ai chatbot

Abbiamo già presentato in un precedente articolo le differenze rispetto alla legislazione in materia di Intelligenza Artificiale in USA, Cina e Europa e abbiamo visto come l'Europa sconti un certo ritardo digitale rispetto a Stati Uniti e Cina. 

Il 21 Aprile 2021 la Commissione Europea ha svelato una proposta di regolamento per equilibrare le norme europee sull'Intelligenza Artificiale

Come riporta Il Sole 24 Ore, "L'obiettivo, prioritario nell'agenda dell'esecutivo von der Leyen, è quello di contrastare gli utilizzi della tecnologia che possano risultare lesivi per «i diritti fondamentali e la sicurezza» dei cittadini Ue. Fra le applicazioni che dovrebbero essere vietate ci sono quelle capaci di «manipolare le persone attraverso tecniche subliminali al di là della loro coscienza» o che sfruttano le vulnerabilità di gruppi particolarmente fragili, come i bambini o le persone con disabilità".

L'obiettivo di Bruxelles è quello di tutelare i cittadini con l'applicazione di standard etici, ma allo stesso tempo ridurre il divario tra Europa e USA, Cina nell'applicazione delle nuove tecnologie di AI. 

I livelli di rischio dell'AI per la Commissione

Nella sua proposta, che deve essere ora approvato dal Parlamento e dal Consiglio Europeo, la Commissione identifica tre livelli di rischio differenti per le tecnologie AI. 

  • tecnologie ad alto rischio: usi dell'AI nelle infrastrutture di importanza critica, l'istruzione, l'occupazione, servizi pubblici e privati essenziali, il controllo delle frontiere e dell'immigrazione, l'amministrazione della giustizia, l'applicazione della legge. In generale, sono tutte quelle tecnologie giudicate portatrici di una minaccia alla sicurezza o ai diritti delle persone, come nei casi di strumenti di manipolazione (ad esempio i giocattoli con assistenti vocali che possono incitare i minori a determinati comportamenti) o di “punteggio” ai cittadini (sistemi sviluppati con AI che consentono ai governi di identificare e classificare i cittadini in base a determinate caratteristiche, come in Cina). Il loro utilizzo è comunque possibile previa una rigorosa valutazione e la garanzia di tutela per i cittadini. Per esempio, i sistemi di riconoscimento facciale e biometrico potrebbero essere teoricamente vietati, ma attivabili in casi eccezionali ed emergenziali (come la ricerca di vittime di rapimenti, il contrasto all'attività terroristica o le indagini su reati penali). 
  • tecnologie a basso rischio: per esempio i chatbot,  gli assistenti vocali usati nei servizi di customer care.
  • tecnologie a minimo rischio: per esempio i filtri anti-spam o i videogiochi sviluppati con sistemi di AI.

Il controllo dell'applicazione delle regole verrà affidato alle autorità nazionali. I trasgressori nell'uso delle tecnologie ad alto rischio potrebbero incorrere in sanzioni amministrative fino a 30 milioni di euro o, nel caso si tratti di aziende, multe fino al 6% del fatturato. L'uso militare della AI è escluso dal campo di applicazione del regolamento. 

L'ambizioso piano europeo punta ad accogliere tutti i benefici dell'AI, promuovendo l'innovazione, e al contempo creando fiducia, ma anche ad esportare i suoi standard etici a livello internazionale. 


Ti è piaciuto questo articolo? Iscriviti alla newsletter e ricevi le notizie settimanali!

Iscriviti alla Newsletter

Commenti:

Nessun commento è ancora presente. Scrivi tu il primo commento a questo articolo!

Pubblica un commento

Utente:
E-Mail (solo per ricevere le risposte)
Inserisci il tuo commento: