Pagina Linkedin con bollino Content Credentials

Grafica e immagine | di Sbertani

Il problema delle credenziali di una immagine creata con IA: tra etica, necessità e limiti normativi

La crescente adozione di applicazioni d’intelligenza artificiale generativa (AI) nella creazione di contenuti visivi, ha spinto i legislatori, soprattutto in Europa, a introdurre normative volte a garantire la trasparenza e la tracciabilità dei contenuti.

Una delle misure in discussione in questi ultimi giorni in ambito informatico è l’obbligo di includere i metadati identificativi nelle immagini generate o modificate con applicazioni di intelligenza artificiale.

Questa regolamentazione mira a informare il pubblico sull’origine dei contenuti visivi, promuovendo una comunicazione più trasparente. Tuttavia, emergono diversi interrogativi, sia sul piano pratico sia etico, riguardo alla reale utilità e all’impatto di tali obblighi. Ecco cosa penso su questo argomento che mi tocca particolarmente da vicino.

L’etica della trasparenza nell’uso di immagini AI

Da un lato, vi è un principio etico condivisibile e intoccabile: avvisare il pubblico se un’immagine è stata creata o alterata utilizzando AI. In un contesto in cui la disinformazione è dilagante, sapere se una foto è autentica o frutto di un’elaborazione artificiosa è fondamentale per garantire fiducia e credibilità.

Questo aspetto è particolarmente importante quando si parla di immagini che veicolano messaggi politici, sociali e anche pubblicitari, dove la manipolazione potrebbe influenzare opinioni o decisioni.

Tuttavia, l’equivoco nasce quando si applica questo principio in modo indiscriminato, includendo anche modifiche minime o interventi che non alterano lo scopo comunicativo dell’immagine trattata. Un esempio banale è la rimozione di un oggetto, come un mouse da una scrivania, per rendere la scena rappresentata dalla fotografia più ordinata.

Operazioni di questo tipo, spesso realizzate con strumenti tradizionali come il fotoritocco manuale, oggi possono essere eseguite più rapidamente con strumenti di intelligenza artificiale. Ma la natura dell’intervento non cambia il suo impatto: non si tratta di ingannare il pubblico, ma di migliorare l’estetica.

L’impatto tecnico e pratico delle nuove tecnologie

Adobe Photoshop, per esempio, ha introdotto il sistema “Content Credentials”, ancora in versione "BETA", che aggiunge automaticamente un bollino ai contenuti generati o modificati con il suo sistema di AI generativa, come nel caso di Adobe Firefly. Questo bollino, visibile ad esempio su piattaforme come LinkedIn, appare in alto a sinistra sull’immagine caricata, coprendo talvolta elementi grafici rilevanti.

L’intento è quello di garantire trasparenza, ma l’effetto può risultare controproducente: basta copiare e risalvare l’immagine per eliminare i relativi metadati e quindi non fare apparire il bollino, vanificando di fatto l’obiettivo della normativa. Non fatelo ma funziona così.

Questo sistema, così pensato, non tiene conto anche di un problema pratico rilevante per i grafici e i creativi, che spesso non sono a conoscenza se il materiale ricevuto da fotografi o agenzie sia stato realizzato o modificato con sistemi di AI.

Immaginare poi uno scenario in cui ogni immagine pubblicata sui social venga “storpiata” da un bollino perché il creativo ha usato uno strumento AI anziché un pennello tradizionale per una piccola banale correzione appare poco realistico.

Il nodo delle normative europee: regolamentazione o freno al lavoro creativo?

Al di là degli aspetti tecnici, il dibattito evidenzia un tema più ampio: l’equilibrio tra regolamentazione e libertà creativa. Le normative europee, spesso rigorose, mirano a prevenire abusi, ma rischiano di diventare un ostacolo per chi utilizza strumenti AI in modo legittimo.

Invece di colpire chi diffonde contenuti falsi o manipolati a scopo fraudolento, queste regole finiscono per gravare su professionisti e creativi, spesso organizzati in piccole attività, costretti a confrontarsi con obblighi complessi e, talvolta, inutilmente restrittivi.

L’obbligo di dichiarare ogni uso di app AI, indipendentemente dalla sua entità o scopo, appare come un eccesso di zelo normativo. Lungi dal negare la dovuta trasparenza, questa metodologia cosi proposta rischia di banalizzare il dibattito etico e svuotare di significato la stessa "certificazione", riducendola a un mero e fastidioso adempimento burocratico.

È certamente essenziale, secondo me, distinguere tra interventi che alterano la natura comunicativa di un’immagine e quelli che, invece, migliorano semplicemente la resa estetica senza comprometterne il significato.

In effetti però, ora che ci penso, non ho mai visto in televisione "bollini" che certificano la qualità di chi sta parlando e se lo sta facendo sulla base di proprie idee magari strampalate o su studi certificati da Università o su dati concreti non manipolati.

In un panorama normativo sempre più stringente, è fondamentale trovare un equilibrio tra trasparenza e libertà creativa, evitando che misure certamente basate di presupposti positivi si trasformino, o vengano recepite, in ostacoli per chi lavora in modo etico e responsabile.

Solo così sarà possibile promuovere un uso consapevole dell’AI, senza soffocare l’innovazione e, soprattutto, la professionalità di chi la utilizza.

Perché quel bollino, posizionato in quel modo su Linkedin, certamente non si può vedere.

Letture: 55 | Allegati: 0
Aggiornato il 14-11-2024

Post per categoria