Meta e OpenAI: etichette AI e filigrane nelle immagini

Nel mondo digitale di oggi, dove la creazione di contenuti sintetici è diventata sempre più accessibile e sofisticata, le principali aziende tecnologiche stanno cercando di adottare misure innovative per la trasparenza e la disinformazione. OpenAI e Meta, due giganti del settore, hanno recentemente annunciato l’introduzione di sistemi di filigranatura e etichettatura per le immagini generate dall’intelligenza artificiale, cercando di dare maggiore affidabilità delle informazioni online.
OpenAI, noto per il suo generatore di immagini DALL-E 3, implementerà filigrane digitali invisibili, inserite nei metadati delle immagini, per la verifica dell’origine e dell’autenticità dei contenuti. Queste filigrane, parte dell’iniziativa della Coalition for Content Provenance and Authenticity (C2PA), non alterano la qualità o la velocità di generazione delle immagini, ma riconoscono se un’immagine è stata generata artificialmente. Nonostante l’efficacia di questo sistema possa essere limitata dalla rimozione dei metadati sui social media o dalla semplice cattura dello schermo, potrebbe rappresentare un passo avanti per aumentare la consapevolezza degli utenti sull’origine dei contenuti visivi.
Meta, da parte sua, ha intrapreso un’iniziativa simile, etichettando le immagini generate dall’IA con un watermark specifico quando vengono pubblicate su piattaforme come Facebook, Instagram e Threads. Questa mossa mira a fornire agli utenti una maggiore trasparenza sui contenuti sintetici, che sono sempre più difficili da distinguere da quelli reali. Inoltre, Meta ha annunciato lo sviluppo di una tecnologia, denominata Stable Signature, che integra il watermark nel processo di generazione dell’immagine, rendendo quasi impossibile la sua rimozione.
Queste iniziative arrivano all’avvicinarsi di importanti eventi elettorali in tutto il mondo nel 2024. La diffusione di disinformazione e fake news attraverso contenuti generati dall’IA potrebbe rappresentare una minaccia per l’integrità del processo democratico. L’etichettatura dei contenuti AI da parte di Meta e l’implementazione delle filigrane digitali da parte di OpenAI sono esempi di come la tecnologia può essere utilizzata per cercare di promuovere la trasparenza e la responsabilità nel nostro ecosistema digitale.
Tuttavia, entrambe le aziende riconoscono le sfide che rimangono. La rimozione dei watermark, contenuti AI generati da strumenti open source senza metadati e la mancanza di uno standard universale per la filigranatura digitale sono questioni che necessitano di ulteriori soluzioni. La collaborazione tra aziende tecnologiche, utenti e legislatori dovrà essere fondamentale per la coesistenza di innovazione e sicurezza.
In conclusione, mentre queste misure dovrebbero rappresentare l’inizio della lotta contro la disinformazione online, è chiaro che la battaglia è tutt’altro che vinta.