AI Act: le nuove linee guida UE che non piacciono alle big dell'Intelligenza Artificiale

La Commissione UE introduce linee guida per i modelli AI a rischio sistemico, ma si prevede già lo scontro con le big del settore.
AI Act: le nuove linee guida UE che non piacciono alle big dell'Intelligenza Artificiale

L’Europa si prepara a una svolta epocale nel settore tecnologico, introducendo nuove direttive che mirano a regolamentare l’uso dell’intelligenza artificiale nei comparti industriali più strategici. In particolare, le linee guida appena pubblicate dalla Commissione Europea pongono l’accento sulla necessità di calcolare i rischi dell’AI e, di conseguenza, prevenirli.

Nuove direttive per l’AI: una rivoluzione normativa

A partire dal 2 agosto, entreranno in vigore le prime misure concrete per l’applicazione dell’AI Act, la normativa che pone l’Europa all’avanguardia nella regolamentazione dei modelli AI a rischio sistemico. Si tratta di una svolta che coinvolge giganti tecnologici come Google, OpenAI, Meta, Anthropic e Mistral, classificati come sviluppatori di sistemi potenzialmente critici per la società e l’economia.

Per questi operatori, il periodo di adeguamento si concluderà nell’agosto 2025, ma già da ora la posta in gioco è altissima: le sanzioni previste per chi non rispetterà le nuove regole possono arrivare fino a 35 milioni di euro o al 7% del fatturato globale annuo.

Dal prossimo agosto, i produttori di tecnologie AI dovranno implementare nuove procedure di valutazione dei rischi, test avversariali per verificare la resistenza dei sistemi a manipolazioni e attacchi informatici, e istituire protocolli di segnalazione per eventuali incidenti critici. La cybersecurity assume così un ruolo centrale, diventando un pilastro fondamentale per la tutela dei consumatori e la protezione dei dati.

Un ulteriore elemento di novità riguarda i foundation models e i modelli AI generalisti, sempre più diffusi. Le linee guida della Commissione Europea richiedono ora una documentazione tecnica dettagliata, politiche trasparenti sul copyright e resoconti completi sui dati utilizzati durante la fase di addestramento degli algoritmi. Questa attenzione alla trasparenza e alla tracciabilità mira a garantire che i sistemi siano affidabili, sicuri e conformi alle normative europee.

Le reazioni dell’industria: tra opportunità e timori

Nonostante la volontà della Commissione Europea di supportare le imprese nel percorso di adeguamento all’AI Act, il mondo industriale manifesta sentimenti contrastanti. I vertici di aziende di primo piano come Siemens e SAP hanno espresso preoccupazione circa il rischio che un eccesso di regolamentazione possa rallentare la capacità innovativa dell’Europa, soprattutto in confronto con mercati come Stati Uniti e Cina, dove la pressione normativa è meno stringente.

Meta ha già annunciato che non accetterà questi limiti. Google, OpenAI, Anthropic e altre big del settore non si sono ancora espresse.

La Commissione Europea ribadisce tuttavia la propria determinazione a fornire alle aziende strumenti concreti per rispettare le nuove regole senza sacrificare la competitività. In questo scenario, la capacità di gestire efficacemente i rischi legati all’intelligenza artificiale e di sviluppare modelli AI sempre più sofisticati, trasparenti e sicuri rappresenterà un fattore determinante per il successo delle imprese europee.

Ti consigliamo anche

Link copiato negli appunti