Meta giustifica questa svolta radicale con la volontà di difendere la libertà di espressione, un valore fondamentale in ogni democrazia.
Il nuovo regolamento di Facebook, già attivo in questo 2025 negli Stati Uniti e che si allargherà a breve in Europa e in Italia, modifica le politiche di moderazione dei contenuti sulle piattaforme e mette in discussione l'attività di fact checking. Questa scelta permette ora una maggiore tolleranza verso la diffusione di false notizie, frode, offese e comportamenti scorretti.
L’intenzione dichiarata di Meta è di preservare la libertà di espressione, ma gli esperti avvertono che questa decisione può avere conseguenze in un contesto digitale già sovraccarico di disinformazione e tensioni sociali. Approfondiamo quindi:
Secondo Meta, il controllo dei contenuti non verrà eliminato del tutto, ma sarà limitato a situazioni specifiche. Gli utenti saranno esposti a una maggiore varietà di opinioni, incluse quelle controverse, ma questo può aprire la strada a un ambiente meno sicuro. Ridurre il fact checking significa anche lasciare spazio a frodi e campagne di odio, che potrebbero proliferare senza le restrizioni precedenti.
Sebbene la modifica sia stata introdotta negli Stati Uniti, i suoi effetti si estenderanni anche in altri continenti, Europa in primis. Il vecchio continente ha normative stringenti come il Digital Services Act, che richiede alle piattaforme digitali di garantire un ambiente sicuro e trasparente per gli utenti.
L’Italia potrebbe trovarsi in una posizione critica. Il nuovo regolamento rischia di entrare in contrasto con leggi nazionali che cercano di limitare la disinformazione online. Un’eventuale adozione di queste regole in Europa potrebbe quindi richiedere un intervento delle autorità per trovare un equilibrio tra la libertà digitale e il rispetto delle normative locali.
Una delle conseguenze della nuova politica di Meta è il potenziale aumento di notizie false, soprattutto su temi di grande rilevanza come salute, economia e politica. La diffusione incontrollata di disinformazione influenza il dibattito pubblico e le decisioni prese dagli utenti. Il nuovo approccio agevola i truffatori, che troverebbero un ambiente meno controllato per ingannare gli utenti con schemi fraudolenti o campagne di phishing.
Le frodi online sono già un problema crescente e l’allentamento dei controlli rischia di peggiorare la situazione. Meta giustifica questa svolta con la necessità di tutelare la libertà di espressione, considerata un pilastro della democrazia. Ma in molti sottolineano che una libertà senza regole può portare a effetti collaterali dannosi. La moderazione dei contenuti non deve essere vista come una limitazione, ma come uno strumento per garantire che la verità e il rispetto reciproco prevalgano nel dibattito pubblico.
Gli utenti sono chiamati a imparare a discernere in autonomia tra informazioni affidabili e fake news, ma questo non è sempre facile. In un contesto di sovraccarico informativo, il rischio è che molti non riescano a distinguere il vero dal falso, con conseguenze potenzialmente pericolose.
E allora, chi è responsabile della qualità dei contenuti online? L'azienda sostiene che gli utenti debbano assumersi questa responsabilità, ma molti ritengono che le piattaforme tecnologiche debbano continuare a svolgere un ruolo attivo nella lotta contro la disinformazione.