Moderazione dei contenuti e pubblicità sulle piattaforme di social media

L’articolo Content moderation and advertising in social media platforms, pubblicato sul Journal of Economics and Management Strategy da Leonardo Madio del Dipartimento di Economia e Management dell’Università di Padova e Martin Quinn della Rotterdam School of Management, Erasmus University, Rotterdam, analizza il delicato equilibrio affrontato dalle piattaforme di social media che guadagnano principalmente attraverso la pubblicità e ospitano contenuti generati o caricati dagli utenti.

Il problema centrale è la presenza di contenuti non sicuri, ovvero contenuti che non sono necessariamente illegali, ma che possono essere dannosi o controversi e comparire accanto agli annunci pubblicitari, creando un rischio per la sicurezza del marchio per le aziende che pagano per quella pubblicità. Ad esempio, dopo l’acquisizione di Twitter/X da parte di Elon Musk, il più grande acquirente di spazi pubblicitari al mondo, GroupM, ha classificato la piattaforma come “ad alto rischio” per gli inserzionisti. Molti marchi, tra cui Balenciaga, hanno sospeso o interrotto le loro campagne pubblicitarie. Preoccupazioni simili sono emerse su YouTube nel 2018, causando una grande perdita di inserzionisti in quello che è poi diventato noto come l’“Adpocalypse”.

Pensiamo alla piattaforma come a un “mercato” che collega gruppi diversi: da un lato, gli utenti che trascorrono del tempo sul sito (spesso gratuitamente), e dall’altro, gli inserzionisti che pagano la piattaforma per raggiungere quegli utenti.

Ecco il conflitto: gli inserzionisti vogliono che i loro marchi compaiano in un ambiente sicuro e sono meno disposti a pagare se i loro annunci vengono mostrati accanto a contenuti non sicuri. Gli utenti consumano contenuti, ma potrebbero effettivamente apprezzare oppure disprezzare quelli non sicuri.

La piattaforma guadagna dagli inserzionisti e decide quanto contenuto “non sicuro” rimuovere (in base alla propria politica di moderazione) e quanto far pagare agli inserzionisti. La piattaforma si trova quindi di fronte a un compromesso nel decidere quanto moderare. Una maggiore moderazione rende il sito più sicuro per gli inserzionisti, il che è positivo per i ricavi della piattaforma, ma potrebbe allontanare gli utenti che apprezzano i contenuti non sicuri.

  Quali sono i principali risultati?

Lo studio rileva che, poiché i ricavi della piattaforma provengono dagli inserzionisti, le sue scelte di moderazione sono fortemente influenzate dalle esigenze di questi ultimi, ma anche dalla necessità di mantenere gli utenti. Questo significa che la piattaforma potrebbe non moderare sempre al livello che sarebbe ottimale per la società nel suo insieme, moderando potenzialmente “troppo poco” o “troppo” a seconda delle preferenze di utenti e inserzionisti e del livello di rischio percepito per la sicurezza del marchio.


  Quali sono le implicazioni per le politiche pubbliche?

Quando i governi impongono una moderazione dei contenuti più rigorosa (ad esempio con il Digital Services Act dell’UE, che richiede maggiore responsabilità alle piattaforme online), le piattaforme tendono a rispondere aumentando i prezzi della pubblicità. Questo in genere favorisce gli inserzionisti, migliorando la sicurezza del marchio, poiché è meno probabile che i loro annunci appaiano accanto a contenuti rischiosi. Tuttavia, per gli utenti, il risultato è più complesso: se da un lato vedranno meno contenuti davvero dannosi, dall’altro saranno esposti a un numero maggiore di annunci, il che può peggiorare la loro esperienza sulla piattaforma.

Anche le tasse imposte dai governi alle piattaforme di social media hanno effetti diversi a seconda di come sono progettate. Una tassa sui ricavi pubblicitari può ridurre l’incentivo della piattaforma a moderare i contenuti, rendendola meno severa, poiché diminuisce la redditività dell’attrarre inserzionisti. Al contrario, una tassa basata sul numero di utenti di una piattaforma può talvolta portare a una maggiore moderazione, specialmente se spinge la piattaforma a puntare su inserzionisti che preferiscono un ambiente più sicuro.

Infine, l’aumento della concorrenza tra le piattaforme di social media per attirare l’attenzione degli utenti può paradossalmente portare a politiche di moderazione dei contenuti più permissive. Le piattaforme potrebbero diventare meno rigide su ciò che è consentito per evitare di perdere utenti a favore dei concorrenti, soprattutto se quegli utenti preferiscono contenuti meno filtrati. Questa dinamica competitiva può creare una “corsa al ribasso” nella sicurezza online, potenzialmente in contrasto con l’obiettivo di garantire un ambiente digitale sicuro.