La prima Legge sull’Intelligenza Artificiale è entrata anche nelle nostre vite
L’uso dell’intelligenza artificiale nell’UE verrà regolamentato dalla legge sull’intelligenza artificiale.La legge impone norme severe sull’uso delle tecnologie in questo campo.
La legge, adottata dagli Stati membri dell’UE il 25 maggio, è entrata in vigore oggi dopo la sua pubblicazione nella Gazzetta Ufficiale dell’Unione il 12 luglio.
Le norme, note come la prima “legge sull’intelligenza artificiale” al mondo, armonizzeranno gradualmente le normative in questo campo nei 27 paesi membri dell’UE.
In sostanza, l’obiettivo è che i sistemi di intelligenza artificiale utilizzati nei paesi dell’UE operino in modo da non danneggiare i diritti umani fondamentali e la sicurezza.
Pertanto, le regole raggruppano i sistemi di intelligenza artificiale in base al livello di danno che causano alla società. All’aumentare del grado di rischio, le regole diventano più severe.
Ad esempio, sono stati classificati come “ad alto rischio” i settori dei sistemi in questione che potrebbero compromettere gravemente la vita umana e minacciare la salute, come i trasporti, il punteggio degli esami, le procedure chirurgiche, le procedure di assunzione, la valutazione dei prestiti bancari, l’esame delle domande di visto.
Le aree a basso rischio includono applicazioni come videogiochi supportati dall’intelligenza artificiale o filtri antispam.
La Commissione UE afferma che la maggior parte dei sistemi attualmente utilizzati nei paesi membri dell’Unione rientrano in questa categoria.
Le condizioni per l’utilizzo delle applicazioni di intelligenza artificiale sono determinate in base al grado di rischio e le responsabilità dei distributori, dei fornitori e degli utenti dell’applicazione sono chiaramente definite.
I sistemi che rientrano nel gruppo di rischio “inaccettabile” sono completamente vietati. Il divieto include l’acquisizione di immagini facciali da Internet o da sistemi di telecamere chiuse, l’esecuzione di classificazioni biometriche sul posto di lavoro e nelle istituzioni educative per estrarre dati sensibili come il riconoscimento delle emozioni, il punteggio sociale, l’orientamento sessuale o le credenze religiose.
Sono vietati anche i sistemi di intelligenza artificiale che manipolano il comportamento umano o sfruttano le vulnerabilità umane.
Regole speciali si applicano ai sistemi di grandi dimensioni che possono eseguire un’ampia varietà di attività diverse, come creare video, testo, immagini, parlare un’altra lingua, calcolare o scrivere codice informatico.
Si prevede di garantire che questi sistemi di “intelligenza artificiale per scopi generali” rispettino vari criteri di trasparenza prima di essere immessi sul mercato.
Le aziende che non rispettano le regole rischiano multe di milioni di euro proporzionali al loro fatturato globale.
Se ad esempio venisse utilizzata una tecnologia vietata, l’azienda in questione potrebbe essere multata fino a 35 milioni di euro o al 7% del suo fatturato globale. In caso di violazione di altre disposizioni si possono imporre sanzioni fino a 15 milioni di euro o al 3% del fatturato.
I divieti entreranno in vigore sei mesi dopo l’entrata in vigore della legge oggi.
Le regole di governance e gli obblighi per i modelli di IA di carattere generale entreranno in vigore dopo 12 mesi.
La legge sarà applicabile in tutte le sue dimensioni dopo due anni.
Condividi: