Nel giugno 2025, la Camera dei Deputati ha approvato un disegno di legge sull’intelligenza artificiale che ha acceso il dibattito, soprattutto per un passaggio: l’introduzione di #sanzioni penali legate all’uso dell’IA. Alcune testate hanno parlato di pene per chi “utilizza sistemi di intelligenza artificiale”, alimentando il timore di una stretta generalizzata. Ma è davvero così?
La risposta, se si guarda con attenzione al testo normativo, è più articolata. Il provvedimento, infatti, non criminalizza l’#intelligenzaartificiale in sé, né tantomeno l’uso comune o professionale di strumenti basati su IA. Piuttosto, si concentra su condotte specifiche e già sensibili sotto il profilo giuridico, come la violazione del diritto d’autore, in particolare quando riguarda l’addestramento dei modelli #AI.
Il nodo dell’addestramento e del copyright
Una delle parti più controverse del disegno di #legge riguarda l’impiego di testi, immagini e dati protetti da copyright per alimentare i modelli di intelligenza artificiale. L’art. 25 del testo prevede sanzioni per chi estrae contenuti coperti da diritti senza autorizzazione per fini di addestramento. Il principio è semplice: così come non si può pubblicare un libro altrui senza permesso, allo stesso modo non si possono usare opere protette per “nutrire” un’intelligenza artificiale, se questo avviene senza consenso.
Non si tratta quindi di una crociata contro la tecnologia, ma di un’estensione dei diritti esistenti all’era digitale. La novità è che, in alcuni casi, la violazione non sarà più solo civile, ma potrà anche configurare un reato.
Nessuna “colpa per l’uso dell’IA”
Contrariamente a quanto si potrebbe pensare leggendo certi titoli allarmistici, il disegno di legge non penalizza l’uso lecito dell’IA, né impone limiti generalizzati al suo sviluppo. Chi utilizza strumenti come chatbot, generatori di immagini, assistenti virtuali o software decisionali non è esposto a rischi penali — a meno che non utilizzi quei sistemi per scopi illeciti.
Del resto, la stessa architettura normativa europea (si veda l’AI Act approvato nel 2024) si basa su un principio di regolazione proporzionata al rischio: più un sistema può impattare sui diritti fondamentali (pensiamo all’uso dell’IA nella giustizia o nella sanità), più le regole sono severe. Ma nessuno prevede che l’uso quotidiano dell’IA, o il suo sviluppo in ambito industriale o accademico, debba essere soggetto a sanzioni.
Quale responsabilità, allora?
Il cuore del problema è stabilire chi è responsabile quando un sistema di IA produce effetti dannosi. La legge italiana, come la maggior parte delle normative europee, non riconosce soggettività giuridica alle macchine: la responsabilità resta in capo agli esseri umani. Questo significa che, in caso di danno, il colpevole sarà il programmatore, il fornitore o l’utente, a seconda delle circostanze e del grado di consapevolezza del rischio.
Un sistema AI che prende decisioni discriminatorie, per esempio, non sarà perseguibile in sé, ma lo sarà chi l’ha costruito o impiegato senza adeguati controlli. Questo principio guida tanto la disciplina penale quanto quella civile.
Tra tutela e progresso
Il nuovo disegno di legge sull’IA non deve essere letto come un tentativo di frenare l’innovazione, ma come uno strumento per fissare limiti giuridici chiari, proteggere i diritti (a partire da quelli d’autore) e responsabilizzare chi opera nel settore.
In un contesto dove l’intelligenza artificiale evolve rapidamente, il diritto fatica a tenere il passo. Ma una cosa è certa: la legge non può — e non deve — punire l’uso consapevole, etico e creativo della tecnologia. Piuttosto, deve tutelare i cittadini dagli abusi, garantendo uno sviluppo sostenibile e sicuro dell’IA.
Come sempre, serve equilibrio: regole che non soffochino l’innovazione, ma che ne guidino l’evoluzione nel rispetto della dignità umana, della legalità e della trasparenza.