IA e diritto penale: cosa punisce davvero il nuovo disegno di legge italiano

Nel giugno 2025, la Camera dei Deputati ha approvato un disegno di legge sull’intelligenza artificiale che ha acceso il dibattito, soprattutto per un passaggio: l’introduzione di #sanzioni penali legate all’uso dell’IA. Alcune testate hanno parlato di pene per chi “utilizza sistemi di intelligenza artificiale”, alimentando il timore di una stretta generalizzata. Ma è davvero così?

La risposta, se si guarda con attenzione al testo normativo, è più articolata. Il provvedimento, infatti, non criminalizza l’#intelligenzaartificiale in sé, né tantomeno l’uso comune o professionale di strumenti basati su IA. Piuttosto, si concentra su condotte specifiche e già sensibili sotto il profilo giuridico, come la violazione del diritto d’autore, in particolare quando riguarda l’addestramento dei modelli #AI.

Il nodo dell’addestramento e del copyright

Una delle parti più controverse del disegno di #legge riguarda l’impiego di testi, immagini e dati protetti da copyright per alimentare i modelli di intelligenza artificiale. L’art. 25 del testo prevede sanzioni per chi estrae contenuti coperti da diritti senza autorizzazione per fini di addestramento. Il principio è semplice: così come non si può pubblicare un libro altrui senza permesso, allo stesso modo non si possono usare opere protette per “nutrire” un’intelligenza artificiale, se questo avviene senza consenso.

Non si tratta quindi di una crociata contro la tecnologia, ma di un’estensione dei diritti esistenti all’era digitale. La novità è che, in alcuni casi, la violazione non sarà più solo civile, ma potrà anche configurare un reato.

Nessuna “colpa per l’uso dell’IA”

Contrariamente a quanto si potrebbe pensare leggendo certi titoli allarmistici, il disegno di legge non penalizza l’uso lecito dell’IA, né impone limiti generalizzati al suo sviluppo. Chi utilizza strumenti come chatbot, generatori di immagini, assistenti virtuali o software decisionali non è esposto a rischi penali — a meno che non utilizzi quei sistemi per scopi illeciti.

Del resto, la stessa architettura normativa europea (si veda l’AI Act approvato nel 2024) si basa su un principio di regolazione proporzionata al rischio: più un sistema può impattare sui diritti fondamentali (pensiamo all’uso dell’IA nella giustizia o nella sanità), più le regole sono severe. Ma nessuno prevede che l’uso quotidiano dell’IA, o il suo sviluppo in ambito industriale o accademico, debba essere soggetto a sanzioni.

Quale responsabilità, allora?

Il cuore del problema è stabilire chi è responsabile quando un sistema di IA produce effetti dannosi. La legge italiana, come la maggior parte delle normative europee, non riconosce soggettività giuridica alle macchine: la responsabilità resta in capo agli esseri umani. Questo significa che, in caso di danno, il colpevole sarà il programmatore, il fornitore o l’utente, a seconda delle circostanze e del grado di consapevolezza del rischio.

Un sistema AI che prende decisioni discriminatorie, per esempio, non sarà perseguibile in sé, ma lo sarà chi l’ha costruito o impiegato senza adeguati controlli. Questo principio guida tanto la disciplina penale quanto quella civile.

Tra tutela e progresso

Il nuovo disegno di legge sull’IA non deve essere letto come un tentativo di frenare l’innovazione, ma come uno strumento per fissare limiti giuridici chiari, proteggere i diritti (a partire da quelli d’autore) e responsabilizzare chi opera nel settore.

In un contesto dove l’intelligenza artificiale evolve rapidamente, il diritto fatica a tenere il passo. Ma una cosa è certa: la legge non può — e non deve — punire l’uso consapevole, etico e creativo della tecnologia. Piuttosto, deve tutelare i cittadini dagli abusi, garantendo uno sviluppo sostenibile e sicuro dell’IA.

Come sempre, serve equilibrio: regole che non soffochino l’innovazione, ma che ne guidino l’evoluzione nel rispetto della dignità umana, della legalità e della trasparenza.

VUOI APPROFONDIRE I TEMI DI QUESTO ARTICOLO?

Continua a leggere:

“Sono io, mandami soldi”. Boom di truffe su WhatsApp, come riconoscerle

Arriva da un nome che conosci, magari salvato in rubrica da anni, e proprio per questo non sembra pericoloso. Un #messaggio semplice, diretto, spesso urgente: “mi serve un aiuto”, “puoi votare?”, “mi presti dei soldi?”. È così che oggi passano alcune delle #truffe più efficaci, e il terreno privilegiato è #WhatsApp, diventata negli ultimi anni uno degli strumenti più sfruttati dai criminali digitali. A dirlo è anche il report di Revolut, che colloca l’app tra le principali #piattaforme utilizzate per frodi online, seconda solo a #Facebook. Il meccanismo è tanto semplice quanto insidioso, perché non punta sulla tecnologia ma sulla

Leggi Tutto »

Svolta storica: Meta e Google responsabili dei rischi social per i giovani

C’è un momento in cui una #tecnologia smette di essere percepita come neutra e inizia a essere interrogata per ciò che provoca. È esattamente quello che è accaduto il 25 marzo 2026, quando una giuria della California ha stabilito che #Meta e #Google non possono più sottrarsi alle conseguenze del modo in cui hanno costruito le loro #piattaforme. Non i contenuti, dunque, ma l’architettura stessa dei social finisce sotto accusa: un sistema progettato per trattenere, stimolare, agganciare, anche quando dall’altra parte dello schermo ci sono adolescenti. A rendere concreta questa svolta è la vicenda di Kaley, oggi ventenne, che ha

Leggi Tutto »

Attacchi con AI e NIS2 fanno volare la spesa cyber in Italia verso i 2,8 miliardi

Il mercato della #cybersecurity in Italia continua a crescere con decisione, spinto da un contesto in cui le #minacce informatiche diventano sempre più sofisticate e frequenti. Secondo i dati dell’Osservatorio Cybersecurity & #DataProtection del Politecnico di Milano, nel 2025 il valore complessivo del settore ha raggiunto i 2,78 miliardi di euro, registrando un aumento del 12% rispetto all’anno precedente. Una crescita significativa che riflette la crescente consapevolezza delle #imprese sulla necessità di #proteggere dati, infrastrutture e sistemi digitali in un momento storico segnato da trasformazioni tecnologiche rapide e da un’intensificazione degli attacchi informatici. Il fenomeno non riguarda solo la dimensione

Leggi Tutto »

Frodi sugli acquisti online cresce il ruolo di Telegram e Meta sfiora il 44% dei casi

Nel panorama sempre più complesso delle #frodidigitali, una delle minacce che sta crescendo più rapidamente riguarda le #truffe legate agli acquisti #online, e nel 2025 un ruolo sempre più centrale sembra essere assunto da #Telegram. A segnalarlo è un recente rapporto sulla sicurezza e sul crimine finanziario pubblicato dalla società fintech Revolut, secondo cui proprio l’app di messaggistica è diventata la fonte di frodi in più rapida crescita a livello globale. I dati parlano chiaro: i casi di truffa riconducibili alla piattaforma sono aumentati del 233% rispetto al 2024, evidenziando un’espansione molto veloce di questo fenomeno. Il quadro generale mostra

Leggi Tutto »

Vuoi un riferimento unico per la digitalizzazione della tua azienda?