Nuova strategia di Meta per la lotta alle deepfake: Più etichette, meno rimozioni

Meta ha annunciato cambiamenti alle sue regole sul contenuto generato dall'IA e sui media manipolati in seguito alle critiche del suo Consiglio di vigilanza. A partire dal mese prossimo, l'azienda ha dichiarato che applicherà etichette a una gamma più ampia di tali contenuti, incluso l'applicare un distintivo 'Made with AI' ai deepfake. Informazioni contestuali aggiuntive possono essere mostrate quando il contenuto è stato manipolato in altre modalità che comportano un alto rischio di ingannare il pubblico su una questione importante.

La mossa potrebbe portare il gigante dei social network a etichettare più contenuti potenzialmente fuorvianti, importante in un anno in cui si tengono molte elezioni in tutto il mondo. Tuttavia, per i deepfake, Meta applicherà etichette solo quando il contenuto in questione presenta 'indicatori di immagini AI standard del settore' o quando l'uploader ha dichiarato che si tratta di contenuto generato dall'IA.

Il cambio di politica probabilmente porterà anche a una maggiore presenza di contenuti generati dall'IA e di media manipolati sulle piattaforme di Meta, poiché si sta orientando verso un approccio incentrato sull ' 'offrire trasparenza e contestualizzazione aggiuntiva', come il 'modo migliore per affrontare questo contenuto' (anziché rimuovere i media manipolati, data l 'risk legati alla libertà di espressione).

Quindi, per i contenuti generati dall'IA o manipolati in altri modi sulle piattaforme di Meta come Facebook e Instagram, la strategia sembra essere: più etichette, meno rimozioni.

Meta ha annunciato che smetterà di rimuovere i contenuti esclusivamente sulla base della sua attuale politica sui video manipolati a luglio, aggiungendo in un post sul blog pubblicato venerdì che: 'Questo timeline dà alle persone il tempo per capire il processo di autodisclosure prima di smettere di rimuovere il sottoinsieme più piccolo di media manipolati.'

Il cambiamento di approccio potrebbe essere finalizzato a rispondere alle crescenti richieste giuridiche su Meta in materia di moderazione dei contenuti e di rischio sistemico, come il Regolamento sui servizi digitali dell'Unione europea. Dallo scorso agosto, la legge dell'UE ha applicato un insieme di regole ai suoi due principali social network che richiedono a Meta di camminare su un filo sottile tra eliminazione di contenuti illegali, mitigation dei rischi sistemici e protezione della libertà di espressione. Il blocco sta anche esercitando una pressione aggiuntiva sulle piattaforme in vista delle elezioni al Parlamento europeo di giugno, incluso esortare i giganti della tecnologia a marchiare i deepfake, ove tecnicamente fattibile.

Le prossime elezioni presidenziali negli Stati Uniti a novembre sono anch'esse probabilmente all'ordine del giorno di Meta.

Critiche del Consiglio di vigilanza

Il Consiglio consultivo di Meta, che il gigante tecnologico finanzia ma permette di gestire a distanza, esamina una piccola percentuale delle sue decisioni di moderazione dei contenuti, ma può anche formulare raccomandazioni politiche. Meta non è obbligata ad accettare le suggerimenti del consiglio, ma in questo caso ha accettato di modificare il suo approccio.

In un post sul blog pubblicato venerdì, Monika Bickert, VP contenuti politici di Meta, ha dichiarato che l'azienda sta modificando le sue politiche sui contenuti generati dall'IA e sui media manipolati sulla base del feedback del consiglio. 'Siamo d'accordo con l'argomento del Consiglio di vigilanza secondo cui il nostro approccio attuale è troppo stretto poiché copre solo i video che sono creati o alterati dall'IA per far sembrare una persona dire qualcosa che non ha detto', ha scritto.

A febbraio, il Consiglio di vigilanza ha esortato Meta a riconsiderare il suo approccio ai contenuti generati dall'IA dopo aver assunto il caso di un video manipolato del Presidente Biden che era stato modificato per implicare un movente sessuale a un bacio platonico dato alla sua nipote.

Mentre il consiglio ha concordato con la decisione di Meta di lasciare il contenuto specifico online, ha attaccato la politica sui media manipolati come 'incoerente' - evidenziando, ad esempio, che si applica solo ai video creati attraverso l'IA, lasciando fuori altri contenuti falsi (come video o audio manipolati in modo più basilare).

Meta sembra aver tenuto conto del feedback critico.

'Negli ultimi quattro anni, e in particolare nell'ultimo anno, le persone hanno sviluppato altri tipi di contenuti generati dall'IA realistici come audio e foto, e questa tecnologia sta evolvendo rapidamente', ha scritto Bickert. 'Come ha notato il Consiglio, è altrettanto importante affrontare la manipolazione che mostra una persona fare qualcosa che non ha fatto.

'Il Consiglio ha anche sostenuto che rischiamo inutilmente di limitare la libertà di espressione quando rimuoviamo media manipolati che non violano altrimenti i nostri Standard della community. Ha raccomandato un approccio 'meno restrittivo' ai media manipolati come etichette con contesto.'

All'inizio di quest'anno, Meta ha annunciato che stava lavorando con altri del settore per sviluppare standard tecnici comuni per l'identificazione dei contenuti generati dall'IA, inclusi video e audio, ed è basato su quel sforzo per espandere l'etichettatura dei media sintetici ora.

'Le nostre etichette 'Made with AI' su video, audio e immagini generati dall'IA saranno basate sul nostro rilevamento di segnali dell'immagine AI condivisi dall'industria o da persone che dichiarano di caricare contenuti generati dall'IA', ha detto Bickert, notando che l'azienda applica già etichette 'Immaginato con AI' a immagini fotorealistiche create utilizzando la sua funzione Meta AI.

La politica ampliata coprirà 'una gamma più ampia di contenuti oltre al contenuto manipolato che il Consiglio di vigilanza ha raccomandato di etichettare', ha spiegato Bickert.

'Se determiniamo che immagini, video o audio digitalmente creati o alterati creano un rischio particolarmente alto di ingannare il pubblico su una questione importante, potremmo aggiungere un'etichetta più prominente in modo che le persone abbiano più informazioni e contesto', ha scritto. 'Questo approccio generale fornisce alle persone più informazioni sul contenuto in modo che possano valutarlo meglio e quindi avranno il contesto se vedono lo stesso contenuto altrove.'

Meta ha dichiarato che non rimuoverà contenuto manipolato - sia basato sull'IA o manipolato in altro modo - a meno che non violi altre politiche (come interferenza con i votanti, bullismo e molestie, violenza e istigazione, o altre questioni relative agli Standard della community). Invece, come sopra indicato, potrebbe aggiungere 'etichette informative e contesto' in determinati scenari di elevato interesse pubblico.

Il post sul blog di Meta evidenzia una rete di quasi 100 verificatori dei fatti indipendenti, con cui afferma di aver cooperato per identificare rischi legati ai contenuti manipolati.

Queste entità esterne continueranno a esaminare contenuti falsi e fuorvianti generati dall'IA, ha dichiarato Meta. Quando valutano un contenuto come 'Falso o Alterato', Meta ha detto che risponderà applicando modifiche algoritmi che riducano la portata del contenuto - il che significa che apparirà più in basso nei feed in modo che meno persone lo vedano, oltre a Meta applicare un'etichetta sovrapposta con informazioni aggiuntive per coloro che comunque lo vedono.

Questi verificatori di terze parti sembrano destinati ad affrontare un aumento di lavoro a mano a mano che i contenuti sintetici si diffondono, guidati dal boom degli strumenti di intelligenza artificiale generativa. E poiché sembra che più di questo materiale rimarrà sulle piattaforme di Meta a seguito di questo cambiamento di politica.

Meta per espandere l'etichettatura delle immagini generate dall'IA in un anno di elezioni

L'UE pubblica linee guida sulla sicurezza delle elezioni per i giganti dei social media e altri inclusi nel DSA