Solo fino a 2 anni fa, ma anche meno, la consultazione delle pagine avveniva quasi esclusivamente tramite motori di ricerca tradizionali, i quali indirizzavano gli utenti verso una varietà di fonti e prospettive.
Oggi, la tendenza emergente e che si sta sempre più consolidando è quella di utilizzare software AI capaci di fornire risposte sintetiche e personalizzate, spesso senza che si renda necessario il passaggio sulle piattaforme originarie dei contenuti.
Questa mutazione implica non soltanto l’adozione di nuovi strumenti, ma anche una sfida inedita per la sostenibilità dell’informazione e della conoscenza online, ridefinendo il concetto stesso di esperienza digitale e ponendo nuovi interrogativi su affidabilità, accesso e diversità delle fonti.
Come l'intelligenza artificiale sta cambiando la ricerca, la navigazione e il traffico online
L’implementazione di sistemi AI nella ricerca online sta rivoluzionando in profondità il modo in cui gli utenti interagiscono con il sapere digitale. Oggi, la maggior parte delle richieste viene gestita da algoritmi in grado di riassumere in tempo reale i contenuti distribuiti sul web. Invece di visualizzare una lista di link come avveniva in passato, l’utente riceve direttamente una risposta sintetica, creata attingendo da molteplici fonti.
Questa evoluzione ha conseguenze tangibili sul traffico organico verso i siti web: secondo i dati pubblicati da Wired Italia e dal Wall Street Journal, tra il 2024 e il 2025 diversi portali hanno registrato una riduzione di visitatori compresa tra il 2 e il 31%, con punte ancora più alte in alcuni settori.
Alcuni dati rilevanti:
- Le ricerche zero-click, in cui gli utenti ottengono subito la risposta desiderata senza visitare siti esterni, rappresentano ormai più del 75% delle query, secondo Cloudflare.
- Settori come la scienza, l’istruzione e la salute subiscono contrazioni sensibili, con la perdita di traffico fino al 31% rispetto all’anno precedente.
- La modalità AI di Google e le AI Overview riducono drasticamente l’affluenza verso le fonti originali, considerando che solo nell’8% dei casi viene cliccato un link dopo la lettura del riepilogo fornito dal modello automatico (dati Pew Research Center, 2025).
Il fenomeno non riguarda soltanto le grandi piattaforme: anche realtà editoriali di medie e piccole dimensioni, forum e blog vedono diminuire il proprio pubblico, minacciando la varietà di voci del panorama digitale.
Parallelamente, emerge il rischio di una progressiva “automazione” dell’internet: l’aumento di contenuti generati automaticamente e la moltiplicazione dei bot determinano una percezione diffusa di perdita di autenticità e originalità.
Tutto ciò alimenta il dibattito anche sulla qualità dell’informazione.
Le conseguenze economiche: crisi del modello pubblicitario e impatto sui creatori di contenuti
Il funzionamento economico del web è stato storicamente fondato sul traffico degli utenti, inteso come garanzia per la valorizzazione degli spazi pubblicitari e per la sostenibilità di progetti editoriali indipendenti e generalisti.
L’adozione pervasiva di sistemi basati sull’AI mette a rischio questa dinamica, colpendo in particolare i produttori di contenuti originali.
Secondo numerose testimonianze di CEO del settore, tra cui Matthew Prince di Cloudflare, la tendenza ad ottenere risposte immediate dai chatbot, invece che visitare siti specifici, ha ridotto drasticamente il valore del traffico web.
Settore |
Perdita Traffico (%) |
Salute |
31 |
Consultazione |
15 |
Istruzione/Scienza |
10 |
Media/News |
25-30 |
Il calo delle visualizzazioni si ripercuote su:
- Ricavi pubblicitari
- Modelli di abbonamento
- Opportunità di crescita e investimento per i nuovi progetti editoriali
I blogger indipendenti, i piccoli editori e persino i grandi gruppi internazionali lamentano una
perdita di valore e visibilità, innescando una dinamica in cui la creazione di contenuti originali rischia di diventare insostenibile.
Lo scenario è reso ancora più critico dal fatto che le principali piattaforme AI si nutrono degli stessi contenuti generati dagli editori e dai creator, generando una sorta di “patto faustiano” in cui si viene depauperati del proprio apporto intellettuale senza garanzie di remunerazione.
Il dibattito sul copyright, i nuovi modelli di remunerazione e le strategie degli editori
L’affermazione dei modelli linguistici AI ha acceso un acceso dibattito sul tema del diritto d’autore, coinvolgendo tribunali, legislatori e aziende tecnologiche.
Gli algoritmi, per essere addestrati, utilizzano giganteschi insiemi di dati che comprendono spesso opere protette senza autorizzazione preventiva.
Negli Stati Uniti sono pendenti, nel 2025, numerose cause tra editori e colossi dell'AI per presunta violazione del copyright.
Le strategie emerse sono molteplici:
- Accordi di licenza tra grandi editori e fornitori di AI (ad esempio, News Corp. con OpenAI, Financial Times con Google)
- Cause legali mirate a determinare la liceità dell’addestramento sui dati protetti (vedi sentenze della California a favore delle aziende tech, consultabili su copyright.gov)
- Introduzione di forme di “pay-to-index”, in cui i crawler AI devono pagare per poter accedere a determinati contenuti
- Nuove piattaforme, come Tollbit, che permettono di monetizzare attraverso microtransazioni ogni volta che un contenuto viene estratto dai chatbot
Rischi tecnologici e sociali: allucinazioni, bias, declino dell'originalità e minacce esistenziali
L’espansione dei grandi modelli generativi comporta una serie di rischi di natura tecnica e sociale. Le cosiddette
hallucinations, ovvero risposte errate o fuorvianti prodotte dall’AI, possono diffondere disinformazione o verità distorte. Nelle ultime cronache si citano casi di errate notizie su personaggi pubblici o consigli dannosi condivisi dai chatbot.
I 4 rischi esistenti più gravi:
- Crescita dei bias algoritmici, che tendono a rafforzare stereotipi già esistenti e a limitare la diversità informativa
- Diminuzione della partecipazione umana ai processi collaborativi e di revisione, con effetti negativi sulla qualità dei contenuti
- Progressivo declino dell’originalità, sostituita da testi ripetitivi o privi di qualità narrativa autentica
- Sviluppo di minacce esistenziali da parte di sistemi di AI avanzata, come paventato dal Machine Intelligence Research Institute, che teorizza la possibilità di una superintelligenza non controllata (ASI)
Le preoccupazioni non riguardano solo il breve periodo: la perdita di pluralismo, la riduzione delle fonti e le conseguenze sulla salute mentale degli utenti rappresentano un banco di prova per la società, come sottolineato dagli studi dell’ex ingegnere Google e attuale presidente MIRI, Nate Soares.
Risposte e possibili soluzioni: tra regolamentazione, adattamento e innovazione
La risposta alle sfide poste dalla diffusione dell’AI richiede un approccio multidimensionale, che coinvolge legislatori, aziende, fornitori di contenuti e società civile. Le principali direzioni individuate sono le seguenti:
- Forme di regolamentazione internazionale ispirate al trattato di non proliferazione nucleare, volte a limitare la corsa alla superintelligenza
- Adozione di standard tecnici per migliorare la trasparenza e la tracciabilità delle fonti utilizzate dagli algoritmi generativi
- Sviluppo di strumenti tecnologici per consentire ai siti di monetizzare l’accesso dei bot AI o, in alternativa, bloccarne lo scraping
- Potenziamento dei modelli editoriali basati su iscrizioni, abbonamenti, eventi esclusivi e relazioni dirette con la propria base di utenti
- Sperimentazione di nuove forme di collaborazione tra editori, ad esempio tramite accordi collettivi, pur nei limiti imposti dalle normative antitrust