Le analisi di Fischer sulle Borse nel 2026 offrono una panoramica sulle valutazioni, la presunta assenza di bolle speculative, le correlazioni storiche e i settori tecnologici, confrontando dati attuali con epoche passate e dinamiche dei mercati globali.
Le valutazioni dei listini azionari rappresentano uno dei temi più dibattuti dagli operatori e dagli investitori in vista del nuovo anno. L’attenzione si concentra sulle previsioni per il 2026, dove i timori di una sopravvalutazione diffusa si scontrano con le opinioni di chi afferma che il mercato, pur mostrando multipli apparentemente elevati, non si trova necessariamente alle soglie di una fase euforica destinata a concludersi con una correzione improvvisa. L'opinione pubblica, stimolata anche dalle dichiarazioni dei principali organismi internazionali, si interroga sulla tenuta degli asset tecnologici, sulle prospettive delle Borse mature e sulle possibili analogie con le grandi crisi speculative del passato. Fra questi scenari, le affermazioni di Fischer, secondo cui non sussiste una correlazione automatica tra alti rapporti prezzo/utili e crolli imminenti, invitano ad adottare un approccio più ponderato e meno legato ai timori irrazionali. Il confronto tra visioni diverse stimola una riflessione sulla valutazione dei dati finanziari e dei parametri guida spesso utilizzati in modo acritico nel tentativo di prevedere i movimenti futuri dei mercati.
L’anno che sta per concludersi è stato caratterizzato da una performance particolarmente brillante dell’indice Ftse Mib italiano, capace di archiviare un incremento del 32% e di registrare uno spread Btp-Bund ai minimi dal 2009, a 66 punti base, segnale di fiducia e stabilità percepita dagli investitori internazionali nei confronti del sistema economico nazionale. Anche altri listini europei hanno vissuto momenti di crescita, pur se accompagnati da forti oscillazioni riconducibili all’acuirsi delle tensioni geopolitiche e all’incertezza sulle politiche monetarie futura.
A livello globale, i mercati azionari hanno sperimentato una crescita significativa in settori come quello delle materie prime – con oro e argento protagonisti di importanti apprezzamenti – e dei titoli high tech legati all’Intelligenza Artificiale. Nvidia, ad esempio, ha sfondato il tetto dei 5.000 miliardi di dollari di capitalizzazione, ponendosi come simbolo di questa fase espansiva. Tuttavia, il rally dei listini si accompagna a un aumento della volatilità, innescata sia dal cambiamento delle politiche commerciali statunitensi sia dalla crescente incidenza del fattore tecnologico nei portafogli globali.
I mercati italiani hanno beneficiato di fondamentali economici in miglioramento ma restano esposti alle dinamiche internazionali, soprattutto per quanto riguarda la tenuta dei consumi, le esportazioni e la competitività delle imprese. Il panorama resta, comunque, punteggiato da preoccupazioni circa la tenuta delle criptovalute – con il Bitcoin in calo e l’interesse per le valute virtuali in lieve flessione – e dalle opinioni discordanti sulla possibilità che alcuni comparti, specie quelli tecnologici, stiano vivendo uno stato di “euforia” assimilabile ai presupposti di una fase speculativa.
Secondo l’analisi presentata da Fischer, l’utilizzo del rapporto prezzo/utili (P/E) come strumento predittivo per i rendimenti futuri appare sostanzialmente privo di efficacia. L’autore, che sottolinea una lunga esperienza nella misurazione dei rapporti di valutazione e nella creazione di indicatori come il Price-to-Sales Ratio (PSR), sostiene che la credenza diffusa secondo cui multipli elevati sarebbero forieri di performance negative sia una semplificazione inadeguata dei fenomeni di Borsa.
Gli studi statistici sulla correlazione tra P/E e rendimenti mostrano dati decisamente trascurabili. Ricorrendo al valore di R², Fischer rileva che, ad esempio, per il mercato italiano dal 2000 in poi, solo il 3% del rendimento a un anno può essere spiegato dai valori iniziali del P/E, mentre la percentuale scende all’1% per orizzonti di tre e cinque anni. Simili risultati emergono su scala globale, con l’indice MSCI World che esprime correlazioni anche inferiori. In altre parole, le dinamiche di mercato appaiono governate da una molteplicità di fattori – dal sentiment degli investitori alle aspettative sugli utili futuri – che vanno ben oltre la semplice analisi dei parametri di valutazione tradizionali.
La motivazione addotta risiede nel carattere retrospettivo degli utili, che spesso non riflettono le dinamiche prospettiche già “prezzate” dai mercati. Emblematico è il comportamento delle quotazioni all’uscita dalla crisi del 2009: in presenza di utili ancora depressi, il P/E globale risultava storicamente elevato, ma proprio questa apparente distorsione corrispondeva a una fase ottimale di ingresso per gli investitori.
Allo stesso tempo, il periodo 2015–2025 è ricco di esempi in cui i listini hanno performato brillantemente nonostante livelli storici di P/E sopra la media. Ciò dimostra che la valutazione isolata di un parametro, senza considerare le variabili di contesto, rischia di generare previsioni fuorvianti. Fischer conclude che l’efficienza dei mercati richiede un approccio multidimensionale e una consapevolezza che gli eccessi di cautela possano finire, paradossalmente, per favorire ulteriori fasi rialziste proprio grazie alle aspettative contenute dei partecipanti.
L’avanzata delle tecnologie legate all’Intelligenza Artificiale ha contribuito in modo deciso a ridefinire le dinamiche di mercato nell’ultimo biennio. I principali organismi internazionali, tra cui la Banca d’Inghilterra e il Fondo Monetario Internazionale, hanno espresso preoccupazione per una possibile sopravvalutazione dei titoli AI, sottolineando come la crescita vertiginosa delle capitalizzazioni non sia sempre accompagnata da utili reali o da un’adozione ampia nelle filiere produttive.
Secondo i report della BoE, la rapidità dei rialzi ha portato le valutazioni del comparto tech su livelli "tesi", esponendo il sistema finanziario al rischio di correzioni improvvise, specie se dovessero emergere delusioni nei dati sugli utili o rallentamenti imprevisti nella diffusione dei modelli generativi. Viene inoltre evidenziato il potenziale di effetto domino, soprattutto nei mercati del credito, qualora venissero meno le condizioni di accesso alla liquidità per imprese e famiglie.
I marcatori di rischio segnalati dagli analisti includono:
Le attuali dinamiche suggeriscono dunque una situazione di esuberanza moderata, dove la consapevolezza diffusa dei potenziali rischi potrebbe rappresentare essa stessa un argine a un’esplosione distruttiva della bolla. Viene spesso ribadita la necessità di un approccio diversificato e selettivo nell’investimento, con attenzione ai fondamentali e alla capacità delle aziende di generare profitti sostenibili.
Nonostante le similitudini apparenti con alcune fasi speculative note, l’attuale configurazione dei mercati mostra numerose differenze rispetto alle grandi crisi del passato. Durante la bolla Dot-Com tra il 1999 e il 2000, il price-earning delle big tech aveva raggiunto picchi doppi rispetto agli attuali; inoltre, la generalizzata assenza di utili lasciava poco spazio alla resilienza in caso di shock. Oggi, i bilanci delle società tecnologiche presentano robuste capacità di generare utili, mentre la domanda di servizi AI e cloud computing si dimostra ampia e crescente.
Ulteriori elementi di discontinuità sono rappresentati da:
L’approccio regolatorio, la solidità patrimoniale e l’evoluzione dell’informazione finanziaria costituiscono altrettanti punti di distinzione rispetto alle crisi passate, rafforzando la tesi di una maggiore robustezza strutturale complessiva rispetto ai cicli pre-2000.
Nell’analisi degli equilibri strutturali attuali emergono sia fattori di resilienza sia aree di possibile fragilità. Tra i punti di forza si annoverano: