Regole UE sull’intelligenza artificiale

L’Unione Europea ha approvato regole fondamentali per l’intelligenza artificiale, in quello che probabilmente diventerà il primo regolamento importante che disciplina la tecnologia emergente nel mondo occidentale.

Le principali istituzioni dell’UE hanno trascorso la settimana a elaborare proposte nel tentativo di raggiungere un accordo, soffermandosi soprattutto su alcuni punti critici, come le modalità di regolamentazione dei modelli di intelligenza artificiale generativa, utilizzati per creare strumenti come ChatGPT, e l’uso di strumenti di identificazione biometrica, come il riconoscimento facciale e la scansione delle impronte digitali.

Germania, Francia e Italia si sono opposte alla regolamentazione diretta dei modelli di IA generativa, noti come “modelli di fondazione”, favorendo invece l’autoregolamentazione da parte delle aziende che li producono attraverso codici di condotta introdotti dal governo. La loro preoccupazione è che un’eccessiva regolamentazione possa soffocare la capacità dell’Europa di competere con i leader tecnologici cinesi e americani. La Germania e la Francia ospitano alcune delle più promettenti startup europee nel campo dell’intelligenza artificiale, tra cui DeepL e Mistral AI.

La legge europea sull’IA è la prima del suo genere che si rivolge specificamente all’IA e segue anni di sforzi europei per regolamentare la tecnologia. La legge trae le sue origini nel 2021, quando la Commissione europea propose per la prima volta un quadro normativo e giuridico comune per l’IA. Ricordiamo che il quadro normativo suddivide l’IA in categorie di rischio, da “inaccettabile” – ovvero tecnologie che devono essere vietate – a forme di IA ad alto, medio e basso rischio.

L’IA generativa è diventata un argomento mainstream alla fine dello scorso anno, dopo il rilascio pubblico di ChatGPT di OpenAI, apparso dopo le proposte iniziali dell’UE del 2021 e ha spinto i legislatori a rivedere il loro approccio.

ChatGPT e altri strumenti di IA generativa come Stable Diffusion, Bard di Google e Claude di Anthropic hanno sorpreso gli esperti di IA e le autorità di regolamentazione per la loro capacità di generare risultati sofisticati e simili a quelli umani a partire da semplici query utilizzando grandi quantità di dati. Hanno suscitato critiche per le preoccupazioni legate al potenziale di sostituzione dei posti di lavoro, alla generazione di un linguaggio discriminatorio e alla violazione della privacy.

Lascia un commento

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi