Salta al contenuto principale
L’Europa vara l’AI Act: cosa c’è da sapere per gestire l’Intelligenza Artificiale

L’Europa vara l’AI Act: cosa c’è da sapere per gestire l’Intelligenza Artificiale

Fonte ASARVA

In un mondo sempre più digitalizzato, l'Europa si distingue per il suo approccio proattivo nella regolamentazione dell'intelligenza artificiale, attivandosi per la tutela dei diritti individuali nell'era della tecnologia avanzata. L'introduzione dell'AI Act è un testimone del desiderio europeo di bilanciare progresso tecnologico e rispetto dei valori umani.

Francesco Amigoni, professore ordinario al dipartimento di Elettronica, Informazione e Bioingegneria del Politecnico di Milano, offre una panoramica essenziale dell'AI Act, sottolineando la sua natura pionieristica e la sua complessità: «L'Europa, con la sua lunga tradizione di normative sull'uso delle tecnologie, come il GDPR, si conferma ancora una volta all'avanguardia nella regolamentazione dell'IA» afferma. Questa nuova legge incarna l'impegno europeo nel porre l'individuo al centro dell'attenzione, differenziandosi da altri approcci globali, più incentrati sull'impresa.

Principi fondamentali e categorie di rischio 

L'AI Act mira a regolamentare le applicazioni dell'IA piuttosto che la tecnologia in sé, consentendo una maggiore flessibilità e adattabilità alle rapide evoluzioni tecnologiche. Questo principio rispecchia la convinzione che sia fondamentale avere una comprensione profonda delle potenzialità e dei rischi dell'IA, tanto per i privati cittadini quanto per le aziende. «Tutta l’impalcatura - conferma l’esperto - si basa su questi principi: la persona è al centro e si vanno a normare le applicazioni della tecnologia, non la tecnologia stessa». In tal senso l'AI Act introduce una classificazione dei rischi associati all'uso dell'IA, delineando una serie di requisiti e scadenze in base al potenziale impatto sulle persone:

  • Rischio inaccettabile: comprende pratiche come la videosorveglianza biometrica di massa, vietate per il loro impatto negativo sulla privacy e i diritti fondamentali.
  • Rischio elevato: si riferisce a sistemi IA che influenzano significativamente i diritti umani, come quelli utilizzati per il reclutamento. Queste applicazioni necessitano di una valutazione rigorosa prima dell'implementazione.
  • Rischio limitato: include applicazioni come chatbot e deepfake, per le quali sono richieste misure di trasparenza per informare gli utenti dell'interazione con un sistema IA.
  • Rischio minimo o nullo: fa riferimento a categorie come videogiochi e filtri fotografici, considerati di basso impatto.

Scadenze e implementazione

L'AI Act stabilisce un calendario di implementazione scaglionato, iniziando con le disposizioni più critiche da applicare entro sei mesi dalla pubblicazione ufficiale dell'atto. «Si tratta di una normativa appena nata - aggiunge Amigoni - un documento di 250 pagine che richiede ulteriori atti attuativi. C’è un calendario delle scadenze in cui queste sono scaglionate a partire dai 6 mesi dall’approvazione. Avremo certamente sviluppo, quindi, nel corso del 2024».

Formazione e consapevolezza 

Un altro aspetto cruciale nell'adozione e nella regolamentazione delle tecnologie emergenti, come l'intelligenza artificiale, è l'indispensabile necessità di sviluppare una comprensione approfondita e una consapevolezza critica delle potenzialità, delle funzionalità e, soprattutto, dei rischi che queste tecnologie comportano. Questa consapevolezza non dovrebbe riguardare solamente i privati cittadini, i quali interagiscono quotidianamente con dispositivi e servizi potenziati dall'IA, ma assume un'importanza ancora maggiore per le aziende che si trovano a integrare tali tecnologie nei loro processi produttivi, decisionali e di interazione con il mercato.

La storia dell'informatica ci insegna come l'evoluzione tecnologica abbia radicalmente trasformato il tessuto aziendale e sociale, introducendo nuove opportunità di crescita ma anche inediti rischi e sfide. Nel contesto dell'avvento dell'informatica, le aziende che hanno saputo anticipare e gestire i cambiamenti derivanti dall'introduzione di nuovi sistemi informatici hanno ottenuto vantaggi competitivi significativi, mentre chi non ha adeguatamente compreso o sottovalutato questi aspetti ha spesso affrontato difficoltà.

In modo analogo, nel panorama attuale dominato dall'IA, la consapevolezza e la comprensione delle tecnologie diventano strumenti essenziali per navigare con sicurezza in un ambiente in costante evoluzione. Le aziende, in particolare, devono non solo essere al corrente delle capacità tecniche e delle potenzialità di business offerte dall'intelligenza artificiale ma anche delle implicazioni etiche, sociali e di sicurezza connesse al loro utilizzo. La formazione di una cultura aziendale che promuova una comprensione a 360 gradi dell'IA e dei suoi impatti è fondamentale per sfruttare appieno i benefici di queste tecnologie, mitigandone al contempo i rischi.

Un tema che si farà sempre più imponente 

L'AI Act rappresenta un importante passo avanti nella creazione di un quadro etico e normativo per l'IA, piazzando l'Europa come un punto di riferimento globale nella regolamentazione tecnologica centrata sull'essere umano. Un elemento è chiaro: sentiremo sempre più parlare di intelligenza artificiale, anche a livello legislativo.

Ostall Di Ghiringhelli G. & C. S.N.C.

Via Pianezzo, 14, 21040 Caronno Varesino VA

+39 0331 980910

info@ostall.it