Ogni giorno ci imbattiamo in contenuti realizzati con l’ausilio dell’intelligenza artificiale: ma qual è il modo per non lasciarsi ingannare?
I social network e il mondo del web nel suo complesso sono pieni di contenuti IA, ossia materiale multimediale realizzato utilizzando software che sfruttano l’intelligenza artificiale. Programmi come Chat GPT o Google Gemini oggi sono ampiamente utilizzati.

Si tratta di strumenti alla portata di tutti che consentono di dar libero sfogo alla propria fantasia. Ci sono utenti che li utilizzano per ottenere contenuti informativi e altri per generare file fotografici o videografici da rendere di pubblico dominio. Questo genera un insieme di complicazioni che possono portare a distinguere con confusione cosa sia reale e cosa sia invece un deepfake.
Foto e video creati con IA: come rendersene conto
Il mondo del web attualmente comporta esposizione continua a fake news e materiale incredibilmente realistico che rende difficile per occhi meno esperti saper distinguere ciò che è vero da ciò che non lo è. Per sfavorire la diffusione di notizie che non rispecchiano la realtà contribuendo alla disinformazione o all’informazione sbagliata, è bene avvisare sui modi utili per capire come rendersi conto della veridicità di ciò che si sta guardando.

Innanzitutto, è possibile asserire che tutto ciò che viene creato con intelligenza artificiale lascia traccia. Pertanto, ci sono degli indizi da captare per scovare subito i deepfake. Solo chi osserva con attenzione e nota alcuni dettagli può rendersi conto che si tratta di un video generato da IA, seppur a primo impatto risulti essere indistinguibile da un filmato reale.
L’accuratezza dei video IA si è evoluta incredibilmente negli ultimi tempi. Il modello Sora 2 nonché OpenAI diventano ogni giorno più sofisticati e la qualità di materiale che possono ottenere supera ogni livello raggiunto finora. Gli utenti sono esposti a dei rischi che non possono essere trascurati.
Così è possibile distinguere video reali da quelli creati con IA
In caso di contenuti generati con Sora 2, ci sono strategie ben chiare per rendersi conto di ciò che sia fake. Tutto ciò che viene prodotto utilizzando questo strumento, contiene un watermark visibile e metadati di provenienza che fungono da segnale di identificazione.

Purtroppo, anche questi indizi possono essere arginati: i watermark possono essere tagliati o rimossi con appositi software e i metadati possono essere alternati o persi quando il file viene esportato o elaborato da app di terze parti.
Significa che in caso di manomissione del contenuto, le tracce lasciate da Sora 2 per identificare un file generato tramite IA vanno perse. Ecco perché si rende necessario l’utilizzo di un controllo maggiore. Se non ci sono watermark, bisogna procedere con il controllare i metadati C2PA.
Il trucco per rendersi conto se un video è creato con IA
E’ necessario avvalersi degli strumenti di verifica della Content Authenticity Initiative che possono “leggere” dati all’interno di un video e segnalare cosa proviene da OpenAI o Sora2. Poi, è bene soprattutto affidarsi al proprio senso critico per scovare eventuali stranezze o incoerenze. L’IA non è ancora del tutto precisa: all’interno dei video può lasciare movimenti atipici, soggetti o oggetti che spariscono e immagini imperfette. In sintesi, non abbiamo un metodo infallibile per riconoscere video IA. E’ importante non credere ciecamente a ciò che si vede in rete e osservare i contenuti sempre mantenendo alto il proprio spirito d’osservazione.





