Perché una legge
L’utilizzo della AI nella nostra vita è qualcosa a cui dobbiamo abituarci. Il processo tecnologico nell’ambito dell’intelligenza artificiale influenzerà quasi ogni cosa della nostra esistenza dal lavoro alla salute.
L’utilizzo massivo di questo strumento tecnologico produce una rivoluzione positiva che può avere di contralto ricadute negative che potrebbero sollevare sfide esistenziali qualora, la tecnologia venisse utilizzata senza alcun rispetto nei confronti dei diritti fondamentali dell’essere umano e del suo sviluppo.
I principi di base della normativa
Il principio antropocentrico al centro del nuovo AI Act del Parlamento Europeo riflette l’intento dell’Unione Europea di orientare l’intelligenza artificiale (IA) al rispetto di principi etici fondamentali in linea con la Carta e con i valori su cui si fonda l’Unione Europea.
Già nei primi anni un gruppo di esperti di alto livello sull’intelligenza artificiale (AI HLEG) ha lavorato su linee guida etiche per un’AI affidabile. Il documento prodotto individua sette requisiti che dovranno essere rispettati affinché si possa parlare, effettivamente, di uno strumento affidabile.
Altro principio su cui si basa la normativa è quello di un approccio basato sul rischio. La norma definisce quattro livelli di rischio.
Rischio elevato
Includono la tecnologia di IA utilizzata in attività, servizi che possono avere un impatto significativo sulla sicurezza delle persone o sui loro diritti fondamentali. Questi sistemi dovranno essere sottoposti a rigorosi requisiti prima di essere immessi sul mercato potrebbero rientrare in queste categorie: infrastrutture critiche (ad esempio i trasporti), che potrebbero mettere a rischio la vita e la salute dei cittadini, istruzione o formazione professionale, applicazioni di IA in chirurgia robotizzata o nella medicina, gestione dei lavoratori nel processo di assunzione, valutazione del merito creditizio. Amministrazione della giustizia ecc.
Rischio Limitato
Sono i sistemi di IA che richiedono specifiche trasparenze o informazioni da fornire agli utenti. La legge sull’IA introduce specifici obblighi per garantire che gli utenti sappiano, ad esempio, che stanno interagendo con una macchina per esempio chatbot. Altra questione importante. I fornitori dovranno assicurare che i contenuti generati dall’IA siano identificabili. I testi generati di interesse pubblico dovranno essere identificati come prodotti creati artificialmente da una macchina. Anche se apparentemente falsi.
Rischio minimo nullo
Questa categoria comprende sistemi AI che rappresentano solo una minima preoccupazione per la sicurezza. Include applicazioni come videogiochi abilitati per l’IA o filtri antispam. La maggior parte delle applicazioni AI rientra in questa categoria. Tali sistemi possono essere liberamente utilizzati con poche o nessuna restrizione.
Rischio inaccettabile
In questa categoria rientrano le applicazioni di IA considerate un rischio troppo elevato per essere permesso. Questi sistemi sono vietati o fortemente limitati a causa del potenziale danno che potrebbero causare. Potrebbero includere sistemi che possono manipolare il comportamento umano o che sfruttano le vulnerabilità delle persone, la sorveglianza biometrica di massa in spazi pubblici.
È consentito alle forze dell’ordine usare software per il riconoscimento facciale negli spazi pubblici, il rilevamento dei dati biometrici e l’uso dell’intelligenza artificiale finalizzata al potenziamento di queste attività.
Chi controlla
Per il controllo è istituito a febbraio, l’Ufficio europeo per l’intelligenza artificiale con decisione del 24 gennaio 2024 C/2024/1459
L’Ufficio svolgerà i compiti di controllo sul rispetto delle norme del regolamento AI Act. Ma non solo, si occuperà di monitorare a livello mondiale le strategie e gli sviluppi dell’intelligenza artificiale.
A fine esemplificativo potrà svolgere indagini su eventuali violazioni delle norme sui modelli e i sistemi di IA per finalità generali, anche raccogliendo denunce e segnalazioni. L’ufficio svolge numerose altre funzioni anche a livello politico.
I tempi
La legge sull’IA entrerà in vigore 20 giorni dopo la sua pubblicazione nella Gazzetta ufficiale non entra immediatamente operativa lo sarà pienamente solo due anni. Ma ci sono alcune eccezioni:
I divieti, per esempio, entreranno in vigore già dopo sei mesi e gli obblighi per i modelli di IA per uso generale diventeranno applicabili invece dopo 12 mesi. La norma prevede 36 mesi per i sistemi di IA — incorporate – nei prodotti regolamentati.
La Commissione europea con un “patto sull’AI” ha voluto invitare gli sviluppatori, lasciandogli piena liberalità di non farlo, a rispettare gli obblighi fondamentali della legge sull’IA in anticipo.
L’ambiente e l’AI
In questo regolamento l’ambiente non passa inosservato. Si fa riferimento all’opportunità di poter monitorare e razionalizzare le risorse scarse, l’energia e i parametri al fine di razionalizzare e ottimizzare le azioni per ridurre gli effetti deleteri del cambiamento climatico. Ma non solo, si parla testualmente: “di riduzione al minimo dell’impatto dei sistemi di IA sulla sostenibilità ambientale, anche per quanto riguarda la programmazione efficiente sotto il profilo energetico e le tecniche per la progettazione, l’addestramento e l’usoefficienti dell’IA”.
L’impatto dell’AI sull’ambiente non è irrilevante. I processi di gestione dei dati, l’esecuzione degli algoritmi e dei modelli dell’AI necessitano di grandi potenze di calcolo, con una conseguente elevata necessità di energia. Dobbiamo prendere atto che l’intelligenza artificiale è estremamente energivora.
Considerazioni
La UE ha emanato la prima legge al mondo sulla regolamentazione dell’AI. L’ambizioso progetto vuole fare fronte, giustamente, ai pericoli che crescono esponenzialmente con lo sviluppo commerciale di questa tecnologia. Parallelamente è anche necessario iniziare una vera e propria attività di alfabetizzazione della popolazione in materia di IA.
Il processo educativo è fondamentale per acquisire maggiore consapevolezza nei confronti di questa strumento. Chi non si è rivolto, maledicendolo, al proprio computer perché non funzionava, alzi la mano. Questo predisposizione alla personalizzazione della tecnologia di noi essere umani potrebbe rischiare di rinforzarsi qualora dovessimo avere a che fare con tecnologie che sembrano addirittura senzienti. La conoscenza dell’intelligenza artificiale renderà chiaro a tutti, che, nonostante tutto, abbiamo sempre a che fare con delle macchine che eseguono un software, per quanto evoluto.
Vi rimandiamo alla video intervista “L’Intelligenza artificiale oltre i miti – Intervista al Prof. Massimiliano Badino” pubblicata su GTM per un approfondimento sul tema della AI