Digital Omnibus on AI 2026: riforma dell’AI Act, nuove pratiche vietate e impatti per imprese e professionisti
Digital Omnibus on AI 2026: riforma dell’AI Act, nuove pratiche vietate e impatti per imprese e professionisti
Il voto del 26 marzo 2026 del Parlamento europeo segna un passaggio decisivo nel percorso di revisione del quadro normativo europeo sull’intelligenza artificiale. Con l’approvazione degli emendamenti alla proposta di Regolamento nota come Digital Omnibus on AI, l’Unione europea conferma la volontà di rendere più efficiente, chiaro e concretamente applicabile il Regolamento (UE) 2024/1689 (AI Act).
L’intervento si inserisce nel più ampio pacchetto Digital Omnibus, finalizzato all’ottimizzazione dell’acquis normativo europeo in materia digitale. L’obiettivo è chiaro: semplificare la compliance normativa, ridurre sovrapposizioni regolatorie e garantire certezza giuridica agli operatori economici.
Digital Omnibus on AI: perché nasce la riforma dell’AI Act
L’AI Act rappresenta la prima disciplina organica europea sull’intelligenza artificiale, ma la sua struttura complessa ha immediatamente evidenziato criticità applicative, soprattutto per le forti intersezioni con:
GDPR e protezione dei dati personali
normativa europea sulla sicurezza dei prodotti
regole sulla responsabilità del produttore
tutela dei consumatori
cybersecurity e governance digitale
Il Digital Omnibus on AI nasce quindi dall’esigenza di rendere il sistema regolatorio più lineare, evitando duplicazioni burocratiche e interpretazioni incerte.
Il Parlamento europeo, seguendo la linea già tracciata dal Consiglio il 13 marzo 2026, conferma l’impianto originario dell’AI Act, ma introduce modifiche significative su profili operativi e sostanziali.
Nuove scadenze per i sistemi di IA ad alto rischio
Uno dei temi più rilevanti riguarda il calendario di applicazione degli obblighi previsti per i sistemi di intelligenza artificiale ad alto rischio.
Date certe per imprese e operatori
Il Parlamento sceglie una linea orientata alla certezza normativa, introducendo date precise:
Sistemi ad alto rischio autonomi
(art. 6, par. 2 e Allegato III AI Act)
Applicazione obblighi dal 2 dicembre 2027
Sistemi integrati in prodotti regolati da normativa UE
(art. 6, par. 1 AI Act)
Applicazione obblighi dal 2 agosto 2028
Si tratta di una scelta strategica: imprese, sviluppatori, deployer e organismi notificati potranno programmare con maggiore chiarezza investimenti, processi di adeguamento e valutazioni di conformità.
IA generativa: trasparenza e contenuti artificiali
Il Digital Omnibus on AI interviene anche sui sistemi di IA generativa, oggi centrali nel mercato tecnologico.
Etichettatura dei contenuti artificiali
Per i sistemi già immessi sul mercato prima del 2 agosto 2026, il Parlamento propone che i fornitori si adeguino agli obblighi di trasparenza entro:
2 novembre 2026
L’obbligo riguarda l’indicazione chiara dei contenuti generati artificialmente, tema cruciale per contrastare disinformazione, manipolazione mediatica e frodi digitali.
Deepfake sessuali: nuove pratiche vietate
Tra le modifiche più sensibili emerge la proposta di introdurre una nuova pratica di IA vietata.
Divieto di immagini o video sessualmente espliciti senza consenso
Secondo il testo del Parlamento europeo, sarebbe vietato immettere sul mercato, utilizzare o mettere in servizio sistemi di IA che:
alterano immagini realistiche
manipolano video realistici
generano artificialmente contenuti realistici
raffigurando attività sessualmente esplicite o parti intime di una persona identificabile senza il suo consenso.
Divieto non assoluto
Il legislatore adotta però una logica bilanciata: il divieto non colpisce la tecnologia in sé, ma il suo uso illecito, lasciando spazio allo sviluppo tecnologico ove siano adottate misure efficaci e continuative di prevenzione degli abusi.
Questa impostazione tenta di conciliare:
tutela della dignità personale
diritto all’immagine
protezione da revenge porn e abusi digitali
libertà d’impresa
innovazione tecnologica
Bias algoritmici e trattamento dei dati sensibili
Un altro punto centrale riguarda la lotta alle discriminazioni algoritmiche.
Uso dei dati particolari per correggere bias
Il Parlamento conferma la possibilità di trattare categorie particolari di dati personali (origine etnica, salute, convinzioni religiose, ecc.) quando ciò sia strettamente necessario per:
rilevare bias nei modelli di IA
correggere output discriminatori
prevenire impatti negativi sui diritti fondamentali
tutelare salute e sicurezza delle persone
Rapporto con il GDPR
La previsione è particolarmente rilevante perché si inserisce nel delicato rapporto tra AI Act e GDPR. Il principio adottato è prudente:
necessità stretta
carattere eccezionale
garanzie adeguate
finalità limitata al contrasto delle discriminazioni
Per molte imprese si aprirà la necessità di una valutazione integrata AI compliance + privacy compliance.
Coordinamento con la normativa europea sui prodotti
Il Parlamento interviene anche sul rapporto tra AI Act e normativa di armonizzazione europea relativa ai prodotti.
Obiettivo: evitare duplicazioni
Per i prodotti già soggetti a marcatura CE, certificazioni tecniche o controlli di sicurezza, si vuole evitare che l’AI Act imponga procedure parallele inutilmente onerose.
Nuovo criterio per qualificare l’alto rischio
Un sistema IA incorporato in un prodotto sarà considerato ad alto rischio solo se il suo funzionamento è necessario per garantire la conformità ai requisiti di sicurezza UE.
Si tratta di una modifica di grande impatto per:
medical devices
automotive
machinery
robotics
dispositivi industriali intelligenti
Digital Omnibus on AI: un approccio pragmatico
L’orientamento emergente dalle posizioni di Commissione, Consiglio e Parlamento è chiaramente pragmatico.
L’Unione europea sembra voler superare una regolazione solo teorica per privilegiare una disciplina:
applicabile nella pratica
compatibile con il mercato
sostenibile per le PMI
coordinata con il resto del diritto europeo
capace di tutelare diritti fondamentali senza bloccare innovazione
Il negoziato interistituzionale potrà ancora modificare diversi aspetti, soprattutto sulle nuove pratiche vietate e sui sistemi generativi.
Impatti concreti per aziende, startup e professionisti
Le imprese che sviluppano, integrano o utilizzano sistemi di IA devono già oggi prepararsi su più fronti:
Compliance normativa
classificazione del rischio AI
governance interna dei sistemi
procedure di audit algoritmico
registri tecnici e documentazione
Privacy e data governance
basi giuridiche del trattamento
DPIA
uso dati sensibili per bias detection
trasferimenti internazionali
Contrattualistica
responsabilità tra provider e deployer
SLA tecnologici
garanzie su dataset e modelli
manleva regolatoria
Contenzioso e responsabilità
danni da IA
discriminazioni automatizzate
deepfake lesivi
violazioni reputazionali e concorrenziali
Perché affidarsi allo Studio Legale Bonanni Saraceno
Di fronte all’evoluzione dell’AI Act e al Digital Omnibus on AI, il supporto di professionisti altamente specializzati è oggi essenziale.
Lo Studio Legale Bonanni Saraceno offre competenze avanzate in:
Diritto dell’innovazione e intelligenza artificiale
Assistenza a imprese, startup, provider tecnologici e investitori nella conformità al quadro normativo europeo sull’IA.
Privacy e GDPR
Gestione integrata dei profili AI Act – GDPR, DPIA, data governance, trattamenti complessi e dati particolari.
Regulatory compliance europea
Analisi dei sistemi ad alto rischio, procedure di conformità, governance aziendale e audit documentale.
Contratti tecnologici
Redazione e negoziazione di contratti SaaS, licensing AI, sviluppo software, outsourcing tecnologico e responsabilità tra operatori.
Contenzioso e tutela reputazionale
Difesa in caso di deepfake, diffamazione digitale, uso illecito di contenuti generati artificialmente, discriminazioni algoritmiche e danni da automazione.
Supporto strategico per PMI e grandi imprese
Percorsi personalizzati di adeguamento normativo, risk assessment e formazione interna.
Conclusioni
Il Digital Omnibus on AI rappresenta un passaggio decisivo verso una regolazione europea dell’intelligenza artificiale più chiara, coerente e concretamente applicabile. Per le imprese non è più tempo di attendere: la compliance AI va costruita oggi.
In questo scenario, lo Studio Legale Bonanni Saraceno si propone come partner qualificato per affrontare con metodo, competenza e visione strategica le sfide legali poste dall’intelligenza artificiale e dalla trasformazione digitale.
