AI Act e smart city
Ai Act: che cos’è e come impatta sulle soluzioni per la smart city
Nel contesto sempre più digitale delle città moderne, l’intelligenza artificiale (AI) svolge un ruolo cruciale nell’ottimizzazione delle operazioni e nel miglioramento della qualità della vita urbana. La tecnologia e i sistemi avanzati di analisi, al centro del concetto di Smart City, promettono una serie di vantaggi significativi, ma richiedono anche una regolamentazione attenta per affrontare questioni cruciali come etica, protezione dei dati personali e sicurezza.
L’Unione Europea ha riconosciuto questa necessità. Dopo bozze, revisioni, proposte e analisi, il 13 marzo 2024, il Parlamento europeo ha finalmente approvato la prima legge al mondo sull’intelligenza artificiale.
Dopo l’accordo politico sono al lavoro i tecnici per il testo definitivo che sarà votato in via definitiva dagli organismi europei. Questa legge assicura che i diritti e le libertà siano al centro dello sviluppo di questa tecnologia rivoluzionaria, garantendo un bilanciamento tra innovazione e protezione. Ma che impatto avrà sulle nuove tecnologie per la smart city?
Cos’è l’AI Act?
L’AI Act è il regolamento dell’Unione Europea che stabilisce un quadro normativo comune per l’intelligenza artificiale. La proposta normativa dell’UE offre agli sviluppatori, agli operatori di IA e agli utenti chiari requisiti e obblighi relativi agli usi dell’Intelligenza Artificiale. Questa legislazione include divieti e regole ampie sull’uso dell’IA e non solo. Con un focus su etica, trasparenza e responsabilità, la normativa promuove l’innovazione attenta al cittadino e alla società.
Perché una normativa europea sull’intelligenza artificiale?
Una normativa sull’IA a livello europeo è cruciale per diversi motivi. Prima di tutto, assicura che i sistemi di IA immessi sul mercato e utilizzati nell’Unione rispettino i diritti fondamentali e i valori europei, garantendo la sicurezza e il rispetto della normativa vigente. Inoltre, promuove la certezza del diritto, facilitando gli investimenti e l’innovazione nel settore dell’IA. Migliora la governance e l’applicazione delle normative esistenti sui diritti fondamentali e sulla sicurezza dei sistemi di IA, garantendo un’applicazione più efficace. Infine, favorisce lo sviluppo di un mercato unico per applicazioni di IA lecite, sicure e affidabili, prevenendo la frammentazione del mercato e promuovendo la competitività europea nel settore dell’IA.
Che cosa prevede nello specifico la nuova legge sull’Intelligenza Artificiale?
La proposta adotta un approccio basato sul rischio per la regolamentazione dell’IA, focalizzandosi sulle applicazioni con il potenziale maggiore di causare danni umani. Identifica quattro livelli di rischio delle applicazioni di Intelligenza Artificiale: rischio minimo, limitato, elevato e inaccettabile. A ciascun livello sono associati obblighi specifici in base ai potenziali rischi per gli utenti o per il contesto d’uso dell’applicazione. Qualsiasi strumento AI classificato come rischio inaccettabile sarà proibito.
1.Rischio inaccettabile
I sistemi di IA considerati a rischio inaccettabile e quindi soggetti a divieto sono quelli che rappresentano una minaccia per le persone. Questi includono la manipolazione comportamentale cognitiva di individui o gruppi vulnerabili, come i minori, la classificazione sociale delle persone basata sul comportamento, il livello socio-economico e le caratteristiche personali, nonché i sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale.
Sistemi di identificazione biometrica in tempo reale e a distanza in Cina (video in inglese)
Per quanto riguarda la sicurezza cittadina, sarà vietato sviluppare applicazioni che utilizzino immagini acquisite da telecamere di sorveglianza per creare banche dati per il riconoscimento facciale, così come i sistemi di riconoscimento automatico delle emozioni basati sulla mimica facciale.
Tali sistemi sono diffusi in alcune città cinesi con l’obiettivo di individuare persone ricercate e potenzialmente pericolose. Nell’Unione Europea questa pratica sarà vietata e neanche le forze dell’ordine potranno utilizzare strumenti di identificazione biometrica in tempo reale senza un’autorizzazione giudiziaria o amministrativa, salvo casi di estrema necessità come la ricerca di un individuo scomparso o la prevenzione di attacchi terroristici.
2.Alto rischio
Saranno considerati ad “alto rischio” quei sistemi di IA che influiscono in modo negativo sulla sicurezza o sui diritti fondamentali. Viene richiesto quindi di prestare attenzione all’uso di sistemi di IA in relazione a dati e governance dei dati, documentazione e conservazione delle registrazioni, trasparenza e fornitura di informazioni agli utenti, sorveglianza umana, accuratezza e sicurezza.
3.Rischio limitato
Questo tipo di sistemi di IA dovranno rispettare requisiti minimi di trasparenza che consentano agli utenti di prendere decisioni informate. Gli utenti, infatti, dovranno essere sempre informati quando interagiscono con l’IA, come ad esempio i chatbot, in modo da scegliere se continuare a utilizzarla o se fare un passo indietro. Questo gruppo include i sistemi di IA che sono in grado di generare o manipolare contenuti di immagini, audio o video (ad esempio, deepfake).
4.Rischio minimo o nullo
In questo caso non sono previsti obblighi ed è consentito il libero utilizzo dell’IA. Sono considerati sistemi a rischio minimo o nullo le applicazioni come videogiochi abilitati per l’IA o i filtri antispam.
Le regole proposte saranno implementate attraverso un sistema di governance a livello degli Stati membri, utilizzando le strutture già esistenti, e un meccanismo di cooperazione a livello dell’Unione che includerà l’istituzione di un comitato europeo per l’intelligenza artificiale. Inoltre, sono previste misure aggiuntive per sostenere l’innovazione, come spazi di sperimentazione normativa per l’IA e altre iniziative per ridurre gli oneri normativi e sostenere le piccole e medie imprese (PMI) e le start-up. La Legge sull’Intelligenza Artificiale dell’UE
Che impatto avrà AI Act sulle nuove tecnologie per la smart city?
Il grande potenziale dell’Intelligenza Artificiale (AI) nelle Smart City è evidente, ma è di fondamentale importanza adottare regolamentazioni responsabili con l’AI Act per mitigare i rischi e proteggere le libertà individuali.
Una delle principali preoccupazioni riguardo all’uso dell’AI nelle Smart City è l’etica. Le regole per l’IA disponibili sul mercato dell’Unione o che comunque interessano le persone nell’Unione devono garantire che i sistemi di intelligenza artificiale rispettino i valori umani fondamentali, come la dignità, la libertà e la giustizia. Il Regolamento sull’AI pone l’accento sull’importanza della trasparenza nei sistemi di AI, richiedendo che le decisioni automatizzate siano comprensibili e giustificabili.
Un’altra area chiave di regolamentazione riguarda la protezione dei dati personali. Con l’implementazione del GDPR, l’UE ha stabilito regole chiare sul trattamento dei dati personali, incluso l’uso di algoritmi e tecnologie di intelligenza artificiale. Le Smart City devono garantire che le informazioni sensibili dei cittadini siano gestite in modo sicuro e conforme alle normative sulla privacy dell’UE.
Un tema critico nell’implementazione dell’AI è il rischio di bias e discriminazione nei confronti di determinati gruppi di persone. I regolamenti dell’UE richiedono che le tecnologie di AI siano sviluppate e utilizzate in modo da evitare discriminazioni ingiuste o pregiudizi basati su caratteristiche personali protette. Le città intelligenti devono quindi adottare misure per identificare e mitigare il bias nei sistemi di AI utilizzati nelle decisioni urbanistiche e nell’erogazione dei servizi pubblici.
Un aspetto cruciale della regolamentazione dell’AI è l’attribuzione della responsabilità per le decisioni automatizzate. L’UE ha introdotto disposizioni che richiedono la chiara identificazione dei soggetti responsabili del design, dello sviluppo e dell’uso dei sistemi di AI. Le Smart City devono quindi garantire che esistano meccanismi adeguati per rendere i creatori dei sistemi automatizzati responsabili delle applicazioni e software che elaborano e mettono in circolazione.
Infine, l’UE promuove il coinvolgimento attivo dei cittadini nel processo decisionale sull’implementazione dell’AI nelle Smart City. Le iniziative come l’Agenda Digitale Europea incoraggiano la consultazione pubblica e la partecipazione dei cittadini nella definizione delle politiche e delle direttive relative all’uso dell’AI. Questo approccio garantisce che le tecnologie di intelligenza artificiale siano utilizzate per rispondere alle reali esigenze e preoccupazioni della comunità.
I regolamenti sull’AI dell’UE pongono le basi per un utilizzo responsabile e etico dell’intelligenza artificiale anche nelle Smart City. Sebbene queste regole possano presentare sfide nell’implementazione pratica, offrono anche opportunità per sviluppare città più sicure, inclusive e orientate verso il benessere dei cittadini.
Clicca per leggere anche l’Articolo “Può parlarsi di Intelligenza artificiale nella Pubblica Amministrazione?”