Negli ultimi giorni, i #social sono stati invasi da video a prima vista del tutto realistici: scene di vita quotidiana, interviste, sketch comici e persino spezzoni che sembrano usciti da telegiornali o film. Ma dietro questi contenuti non c’è una telecamera, bensì #Veo3, il nuovo modello di #intelligenzaartificiale presentato da #Google. Ed è proprio questo realismo a creare un misto di meraviglia e inquietudine.
La cosa più disturbante? In molti di questi video, i protagonisti – figure umane generate dall’#AI – negano di essere artificiali. Guardandoli, si ha l’impressione di assistere a qualcosa di profondamente sbagliato, quasi sinistro. È il classico effetto della uncanny valley: quando qualcosa è talmente simile all’umano da sembrare vero, ma quel piccolo margine d’errore – quel “quasi” – ci fa rabbrividire.
Basta una semplice descrizione testuale, un prompt, e nel giro di pochi minuti Veo 3 genera una clip della durata di circa otto secondi. Non solo immagini, ma anche suoni, musiche, dialoghi: tutto creato artificialmente. Il risultato? Una qualità così alta che, in molti casi, nemmeno un occhio esperto riesce a dire con certezza se ciò che sta vedendo è reale oppure no.
Il paragone con Sora, il modello video presentato da OpenAI qualche mese fa, è inevitabile. Veo 3 sembra avere una marcia in più in termini di definizione, fluidità e capacità narrativa. E proprio questo spiega perché questi video siano diventati virali: non sono solo incredibilmente realistici, ma anche narrativamente efficaci, in grado di imitare generi e formati diversi, dai reportage alle clip comiche.
Alcuni contenuti sono diventati rapidamente iconici. In un video, per esempio, un uomo urla a un ragazzo legato a una sedia: «Dov’è lo scrittore di prompt che dovrebbe salvarti?». In un altro, una comica ironizza sulla “prompt theory”, come se il mondo fosse davvero governato da descrizioni testuali. Il confine tra satira e inquietudine si fa sottile, e il disagio aumenta.
La questione, ovviamente, non è solo estetica. I progressi delle AI generative nel campo dei video preoccupano seriamente il mondo del cinema e della televisione. Già nel 2023 gli sceneggiatori di Hollywood scioperarono anche per ottenere garanzie contro l’uso incontrollato dell’intelligenza artificiale. Ma oggi, con strumenti come Veo 3, il timore è che intere produzioni possano essere sostituite da contenuti generati artificialmente, riducendo drasticamente i costi e minacciando migliaia di posti di lavoro.
A questo si aggiunge un altro tema delicato: da dove arrivano i dati usati per allenare queste AI? Google non ha chiarito se i video utilizzati per addestrare Veo 3 siano stati ottenuti nel rispetto del copyright. E già in passato OpenAI era finita nel mirino per presunti utilizzi impropri di contenuti da YouTube, secondo accuse non ancora del tutto smentite.
Il caso di “Will Smith che mangia spaghetti”, un video generato nel 2023 con risultati sgranati e grotteschi, è ormai il simbolo di quanto in fretta si stia evolvendo questa tecnologia. Oggi, con Veo 3, quel prompt produce un risultato impressionante. Ma dietro l’evoluzione tecnica si nasconde una domanda cruciale: siamo pronti per convivere con immagini che sembrano reali, ma non lo sono affatto?
Forse la vera sfida non è solo capire come regolamentare questi strumenti, ma anche ripensare il nostro rapporto con la realtà, con l’informazione e persino con la creatività. Perché quando anche una barchetta di carta in una pozzanghera può essere generata da un prompt e nessuno se ne accorge, non è più solo una questione di stupore tecnologico. È una nuova era. E sarà complicato, per tutti, distinguerla da quella vecchia.