In un significativo cambiamento di politica, X ha annunciato che i creatori che pubblicano video generati da AI che ritraggono conflitti armati senza chiara divulgazione saranno sospesi dal suo programma di Condivisione dei Ricavi per i Creatori per 90 giorni.
Le violazioni ripetute possono portare alla rimozione permanente dall'idoneità alla monetizzazione.
L'aggiornamento arriva mentre i contenuti sintetici legati alla guerra sono aumentati sulla piattaforma durante i continui attacchi U.S.–Israele in Iran, sollevando preoccupazioni riguardo alla disinformazione durante un momento geopolitico altamente sensibile.
Una risposta diretta ai filmati di conflitto generati dall'IA
Secondo X, la decisione riflette i crescenti rischi legati agli strumenti di IA generativa che possono produrre filmati di battaglia altamente realistici ma fabbricati.
“Durante i periodi di guerra, è fondamentale che le persone abbiano accesso a informazioni autentiche sul campo,” ha dichiarato l'azienda. “Con le tecnologie IA di oggi, è banale creare contenuti che possano fuorviare le persone.”
La piattaforma ha sottolineato che i contenuti sintetici non divulgati - soprattutto nel contesto di operazioni militari attive - pongono rischi elevati per la percezione pubblica, la stabilità del mercato e le narrazioni geopolitiche.
Come funzionerà l'applicazione
X prevede di rilevare le violazioni attraverso una combinazione di:
Segnalazioni di Community Notes da parte degli utenti
Analisi dei metadati incorporata nei file generati dall'IA
Rilevamento dei segnali da strumenti di IA generativa noti
Se un creatore carica contenuti di guerra generati dall'IA senza etichettarlo esplicitamente come sintetico o manipolato, i privilegi di monetizzazione saranno sospesi per 90 giorni.
I creatori che ignorano ripetutamente i requisiti di divulgazione potrebbero affrontare l'espulsione permanente dal programma di condivisione dei ricavi.
È importante notare che questa politica mira all'accesso alla monetizzazione piuttosto che a divieti immediati degli account, segnalando che X sta cercando di bilanciare la libertà di espressione con la responsabilità.
Perché questo è importante ora
Le tensioni geopolitiche che coinvolgono l'Iran hanno già aumentato la volatilità nei mercati energetici, nelle azioni e nelle criptovalute. In tali ambienti, la disinformazione può amplificare il panico o distorcere le reazioni del mercato.
Filmati di conflitto generati dall'IA - se circolati senza divulgazione - possono:
Attivare narrazioni false
Influenza del sentimento pubblico
Esacerbare l'instabilità del mercato finanziario
Man mano che gli strumenti di IA generativa diventano più accessibili, le piattaforme sono sotto crescente pressione per differenziare il reporting autentico dalle simulazioni sintetiche.
Il quadro più ampio: monetizzazione come leva
Piuttosto che concentrarsi esclusivamente sulla rimozione dei contenuti, X sta sfruttando incentivi economici.
Sospendendo la condivisione dei ricavi, la piattaforma colpisce direttamente la motivazione finanziaria dietro i post virali e guidati dall'engagement. Per molti creatori ad alto volume, l'idoneità alla monetizzazione è una fonte di reddito fondamentale.
Questo cambiamento suggerisce che le future strategie di moderazione dei contenuti potrebbero fare sempre più affidamento sulle conseguenze finanziarie piuttosto che sulla censura diretta.
In tempi di crisi geopolitica, l'integrità dell'informazione diventa una questione sistemica - non solo una preoccupazione della piattaforma.
E poiché i media generati dall'IA continuano a sfumare la linea tra reale e sintetico, politiche di enforcement come questa potrebbero presto diventare lo standard del settore.
Questo articolo è solo a scopo informativo. Le informazioni fornite non costituiscono consulenza finanziaria.

