IA e diritto penale: cosa punisce davvero il nuovo disegno di legge italiano

Nel giugno 2025, la Camera dei Deputati ha approvato un disegno di legge sull’intelligenza artificiale che ha acceso il dibattito, soprattutto per un passaggio: l’introduzione di #sanzioni penali legate all’uso dell’IA. Alcune testate hanno parlato di pene per chi “utilizza sistemi di intelligenza artificiale”, alimentando il timore di una stretta generalizzata. Ma è davvero così?

La risposta, se si guarda con attenzione al testo normativo, è più articolata. Il provvedimento, infatti, non criminalizza l’#intelligenzaartificiale in sé, né tantomeno l’uso comune o professionale di strumenti basati su IA. Piuttosto, si concentra su condotte specifiche e già sensibili sotto il profilo giuridico, come la violazione del diritto d’autore, in particolare quando riguarda l’addestramento dei modelli #AI.

Il nodo dell’addestramento e del copyright

Una delle parti più controverse del disegno di #legge riguarda l’impiego di testi, immagini e dati protetti da copyright per alimentare i modelli di intelligenza artificiale. L’art. 25 del testo prevede sanzioni per chi estrae contenuti coperti da diritti senza autorizzazione per fini di addestramento. Il principio è semplice: così come non si può pubblicare un libro altrui senza permesso, allo stesso modo non si possono usare opere protette per “nutrire” un’intelligenza artificiale, se questo avviene senza consenso.

Non si tratta quindi di una crociata contro la tecnologia, ma di un’estensione dei diritti esistenti all’era digitale. La novità è che, in alcuni casi, la violazione non sarà più solo civile, ma potrà anche configurare un reato.

Nessuna “colpa per l’uso dell’IA”

Contrariamente a quanto si potrebbe pensare leggendo certi titoli allarmistici, il disegno di legge non penalizza l’uso lecito dell’IA, né impone limiti generalizzati al suo sviluppo. Chi utilizza strumenti come chatbot, generatori di immagini, assistenti virtuali o software decisionali non è esposto a rischi penali — a meno che non utilizzi quei sistemi per scopi illeciti.

Del resto, la stessa architettura normativa europea (si veda l’AI Act approvato nel 2024) si basa su un principio di regolazione proporzionata al rischio: più un sistema può impattare sui diritti fondamentali (pensiamo all’uso dell’IA nella giustizia o nella sanità), più le regole sono severe. Ma nessuno prevede che l’uso quotidiano dell’IA, o il suo sviluppo in ambito industriale o accademico, debba essere soggetto a sanzioni.

Quale responsabilità, allora?

Il cuore del problema è stabilire chi è responsabile quando un sistema di IA produce effetti dannosi. La legge italiana, come la maggior parte delle normative europee, non riconosce soggettività giuridica alle macchine: la responsabilità resta in capo agli esseri umani. Questo significa che, in caso di danno, il colpevole sarà il programmatore, il fornitore o l’utente, a seconda delle circostanze e del grado di consapevolezza del rischio.

Un sistema AI che prende decisioni discriminatorie, per esempio, non sarà perseguibile in sé, ma lo sarà chi l’ha costruito o impiegato senza adeguati controlli. Questo principio guida tanto la disciplina penale quanto quella civile.

Tra tutela e progresso

Il nuovo disegno di legge sull’IA non deve essere letto come un tentativo di frenare l’innovazione, ma come uno strumento per fissare limiti giuridici chiari, proteggere i diritti (a partire da quelli d’autore) e responsabilizzare chi opera nel settore.

In un contesto dove l’intelligenza artificiale evolve rapidamente, il diritto fatica a tenere il passo. Ma una cosa è certa: la legge non può — e non deve — punire l’uso consapevole, etico e creativo della tecnologia. Piuttosto, deve tutelare i cittadini dagli abusi, garantendo uno sviluppo sostenibile e sicuro dell’IA.

Come sempre, serve equilibrio: regole che non soffochino l’innovazione, ma che ne guidino l’evoluzione nel rispetto della dignità umana, della legalità e della trasparenza.

VUOI APPROFONDIRE I TEMI DI QUESTO ARTICOLO?

Continua a leggere:

Cybertruffe in evoluzione, QR Code contraffatti e like che nascondono insidie

I #cybercriminali stanno affinando sempre più le loro tecniche, sfruttando abitudini digitali e #vulnerabilità umane per sottrarre dati personali e orchestrare #truffe mirate. Tra le minacce più insidiose ci sono i QR Code contraffatti e le truffe dei “like”, ma non mancano #attacchi più sofisticati come i Bec (Business E-mail Compromise), conosciuti anche come “truffa del CEO”, in cui i criminali si spacciano per dirigenti aziendali inducendo i dipendenti a trasferire fondi o condividere informazioni riservate. L’Osservatorio Cyber di Crif segnala come, nei primi sei mesi del 2025, gli alert per esposizione di dati online abbiano raggiunto 1,15 milioni sul

Leggi Tutto »

Fine dei cookie, inizio dei dati di valore: come preparare il tuo sito al marketing senza tracciamenti

Negli ultimi anni il #marketing digitale si è affidato in gran parte ai #cookie di terze parti per tracciare gli utenti, profilare gli interessi e ottimizzare campagne pubblicitarie. Dal 2025, però, #Google ha avviato la rimozione definitiva dei cookie di terze parti su #Chrome, il #browser più usato al mondo, segnando la fine di un’era e l’inizio di una nuova sfida per le aziende. La domanda non è più se cambiare strategia, ma come farlo senza perdere clienti e dati preziosi. Senza i cookie di terze parti, molte tattiche di #targeting tradizionali, come il remarketing cross-site o la profilazione basata

Leggi Tutto »

L’adozione dell’IA in Europa: leadership nordica, freni nell’Est e Italia a metà strada

L’intelligenza artificiale corre in Europa, ma non ovunque allo stesso passo. I dati Eurostat diffusi a inizio 2025 mostrano una crescita rapida nell’adozione delle #tecnologie di #IA da parte delle #imprese: nel 2024 il 13,5% delle aziende europee con almeno dieci dipendenti ha dichiarato di averle integrate nei propri processi, contro l’8% dell’anno precedente. Un balzo di oltre cinque punti percentuali in appena dodici mesi, che fotografa l’accelerazione in atto. Ma dietro alla media si nasconde una realtà molto più sfaccettata, con forti differenze regionali e settoriali. I paesi del Nord Europa guidano la classifica. In Danimarca più di un’impresa

Leggi Tutto »

Sigmar: Innovation Manager nella provincia di Ancona per bandi

Sergio Sarnari, titolare della società Sigmar di Ancona, è oggi l’unico Manager dell’Innovazione iscritto all’elenco ufficiale Unioncamere nella provincia di Ancona, aggiornamento al 1° ottobre 2025.Un riconoscimento che conferma la competenza e l’autorevolezza con cui Sigmar accompagna le imprese nel percorso verso la digitalizzazione e la trasformazione tecnologica, operando come fornitore qualificato nei principali bandi pubblici nazionali e regionali. In pratica, le imprese che intendono partecipare a bandi o incentivi per l’innovazione devono avvalersi di professionisti accreditati, e Sigmar, attraverso la figura di Sergio Sarnari, rappresenta l’unico interlocutore locale dell’albo UnionCamere a fornire questo tipo di consulenza certificata nella provincia

Leggi Tutto »

Vuoi un riferimento unico per la digitalizzazione della tua azienda?