Negli ultimi dodici mesi la diffusione di #notizie #false tramite strumenti di intelligenza artificiale è quasi raddoppiata, passando da una percentuale del 18% al 35%. A lanciare l’allarme è #NewsGuard, l’osservatorio internazionale specializzato nell’analisi della qualità dell’informazione #online, che parla di un incremento non episodico, ma “strutturale”.
L’indagine mette in evidenza differenze significative tra i vari sistemi di intelligenza artificiale generativa. Tra i #chatbot più inclini a fornire risposte errate o fuorvianti su temi di attualità figurano Pi di Inflection, che ha riportato tassi di errore superiori al 56%, e Perplexity con quasi il 47%. Non sono immuni nemmeno piattaforme molto diffuse come #ChatGPT e Meta AI, entrambe con percentuali attorno al 40%, mentre Copilot di Microsoft e Le Chat di Mistral si attestano poco sopra il 36%. Più contenuti, invece, gli errori attribuiti a Claude di Anthropic (10%) e a Gemini di Google (circa 17%).
Secondo gli esperti di NewsGuard, la causa principale di questo peggioramento risiede in un cambiamento delle modalità di addestramento dei modelli linguistici. Se in passato questi sistemi tendevano a rifiutarsi di rispondere su temi particolarmente delicati o a limitarsi a fonti predefinite, oggi molti integrano ricerche in tempo reale sul web. Una scelta che, se da un lato amplia l’accesso a informazioni aggiornate, dall’altro espone i chatbot al rischio di assorbire e riproporre contenuti provenienti da fonti inaffidabili o da vere e proprie campagne di disinformazione, talvolta orchestrate da attori ostili, come le note reti legate alla propaganda russa.
Il quadro tracciato da NewsGuard apre interrogativi cruciali: fino a che punto l’intelligenza artificiale, pensata per agevolare l’accesso al sapere, rischia di trasformarsi in un amplificatore della manipolazione? E quali strategie dovranno adottare sviluppatori, istituzioni e cittadini per rafforzare gli argini contro la disinformazione digitale?