Negli ultimi mesi YouTube ha intensificato la propria lotta contro la disinformazione, rimuovendo migliaia di account collegati a campagne di propaganda provenienti da vari Paesi. Solo nel trimestre più recente, la piattaforma ha cancellato quasi 11.000 canali e profili, molti dei quali legati alla Russia e alla Cina.
In particolare, oltre 7.700 canali riconducibili a reti di influenza filogovernative cinesi sono stati eliminati perché diffondevano contenuti volti a sostenere le narrative ufficiali di Pechino e a screditare le politiche statunitensi. Tra le operazioni smantellate spicca Spamouflage (o Dragonbridge), una rete di account falsi attiva dal 2019 su più piattaforme social, progettata per amplificare messaggi propagandistici in modo coordinato.
L’intervento di YouTube ha interessato anche reti di disinformazione operanti in Iran, Turchia, Israele, Romania e Ghana. Google, che controlla la piattaforma, ha inoltre rimosso canali e blog collegati a RT, l’emittente russa legata al Cremlino. Il Google Threat Analysis Group, il team dedicato al monitoraggio e alla neutralizzazione di campagne di influenza globale, ha svolto questa attività. Nel primo semestre dell’anno, oltre 30.000 canali YouTube riconducibili a propaganda russa e cinese sono stati eliminati, con un incremento del 45% rispetto al 2024.
Disinformazione e AI: una sfida in evoluzione
La guerra alla disinformazione non si limita alle campagne statali. Con l’avvento dell’intelligenza artificiale generativa, il rischio di contenuti fuorvianti è cresciuto. Oggi infatti è possibile produrre video, audio e testi in serie con strumenti automatizzati. YouTube si è trovato a dover fronteggiare un fenomeno sempre più diffuso, il cosiddetto “AI slop”. Questo termine descrive contenuti creati con voice-over sintetici, immagini riciclate e musica generata artificialmente, spesso privi di valore informativo o di originalità.
Questa evoluzione ha portato a un aumento di video fake e deepfake che simulano eventi reali, attirando milioni di visualizzazioni e rischiando di confondere gli utenti. La piattaforma, quindi, ha scelto di intervenire non solo contro la disinformazione organizzata, ma anche contro la proliferazione di contenuti di bassa qualità generati automaticamente.
Nuove regole di monetizzazione
A partire dal 15 luglio, YouTube ha aggiornato le norme di monetizzazione del YouTube Partner Program (YPP), chiarendo quali contenuti potranno generare guadagni e quali verranno esclusi.
Il principio cardine rimane l’autenticità: i video dovranno essere originali e offrire valore aggiunto. L’obiettivo è evitare che formati ripetitivi o generati in massa possano accedere ai ricavi pubblicitari.
Alcuni creator hanno manifestato preoccupazioni, temendo restrizioni per i contenuti di rielaborazione. Tuttavia, YouTube ha spiegato che le nuove linee guida non introducono divieti inediti, ma mirano a rafforzare regole già in vigore contro video spam e contenuti automatizzati senza contenuto creativo. Come sottolineato da Rene Ritchie, responsabile dei rapporti con i creator, la piattaforma sta solo rendendo più esplicito ciò che già applica da tempo.
Verso una piattaforma più sicura e credibile
L’azione combinata contro propaganda e AI slop rappresenta un passo strategico per la tutela della qualità dei contenuti. In un ecosistema digitale sempre più affollato e competitivo, YouTube punta a rafforzare la fiducia degli utenti e degli investitori. Le campagne di disinformazione e i video sintetici, se non gestiti, rischiano di minare la credibilità della piattaforma e di favorire la diffusione di notizie false.
Le misure adottate – dalla rimozione massiva di canali di propaganda alla ridefinizione delle regole di monetizzazione – testimoniano la volontà di Google di mantenere YouTube come punto di riferimento per contenuti affidabili e originali. Un impegno che potrebbe richiedere un uso sempre più avanzato di strumenti di moderazione basati sull’intelligenza artificiale e la definizione di regole più chiare per i creator.