Novembre 3, 2024

Euforia ingiustificata sui mercati azionari Usa. Maurizio Novelli: colpa degli algoritmi

La seconda ondata di Covid-19 aumenta sensibilmente il rischio di una doppia caduta del ciclo. I dati “aggiustati” su consumi, disoccupazione e produzione Usa rendono positivo un contesto che non lo è.

“La seconda ondata di Covid-19 sta producendo ulteriori danni sensibili all’economia di Europa e Stati Uniti e aumenta sensibilmente il rischio di una doppia caduta del ciclo nonostante l’euforia speculativa sui mercati finanziari. I motivi alla base del comportamento euforico potrebbero trovare una spiegazione nell’elevata presenza di strategie passive basate sull’uso di algoritmi che non comprendono la realtà”. È l’analisi di Maurizio Novelli, gestore del fondo Lemanik Global Strategy Fund.

L’intelligenza artificiale non si fa molte domande sui dati macro recentemente pubblicati dal governo americano. Appare alquanto strano che le vendite retail siano in forte espansione (+5,8% su base annua vs il 3,5% del 2019) mentre si assiste a un aumento della disoccupazione, a un calo significativo della fiducia dei consumatori, a un aumento della propensione al risparmio e a una contrazione del credito al consumo. Ma andando in profondità nell’analisi si scopre che il governo americano ha modificato il calcolo dell’effetto di destagionalizzazione di questo dato proprio questa primavera, procurando una forte distorsione di calcolo di un dato che rappresenta circa il 70% del Pil. I macroeconomisti sanno che questo dato è distorto e non riflette la realtà delle cose ma le macchine, dotate di intelligenza artificiale, non lo sanno. Nella realtà i consumi calcolati dal real consumer spending sono giù di circa il 3,5%.

Un altro punto è che durante lo scoppio della crisi i disoccupati negli Stati Uniti hanno raggiunto la cifra di circa 27 milioni. Nel mese di aprile il governo americano ha introdotto dei piani separati di sostegno alla disoccupazione. A questo punto il governo federale ha iniziato a far confluire in questi programmi tutti i lavoratori che erano considerati disoccupati per motivi temporanei, facendoli così uscire dalle statistiche ufficiali della disoccupazione. Grazie a questo meccanismo il dato ufficiale sulla disoccupazione Usa è sceso a sei milioni di disoccupati, ma i disoccupati considerati temporanei sono ancora 16 milioni, evidenziando dunque una disoccupazione totale di circa 22 milioni. Anche in questo caso, gli economisti conoscono benissimo la reale situazione in cui versa il mercato del lavoro Usa ma per l’intelligenza artificiale conta solo il dato ufficiale.

I dati sugli ordini di beni durevoli sono un altro indicatore molto importante sulla tendenza del settore manifatturiero e dei consumi. L’analisi statistica dei dati pubblicati negli ultimi due anni evidenzia uno scostamento medio al rialzo del 47% tra il dato mensile preliminare e la sua revisione definitiva, che avviene un mese dopo la sua pubblicazione. Purtroppo la revisione non interessa quasi a nessuno e tutti sono attenti solo al dato preliminare che è quasi sempre sopravvalutato.

“Questi sono solo alcuni casi che evidenziano come sia facile trasformare un dato per renderlo migliore di quello che sembra e come le macchine siano vulnerabili a facili interpretazioni”, sottolinea Novelli. “Se ci si trova in un apparente contesto positivo in cui la disoccupazione scende rapidamente, i consumi salgono a ritmi molto più alti dello scorso anno, il governo federale eroga uno stimolo fiscale di 15 punti di Pil e la Fed inietta una colossale massa di liquidità nel sistema, è evidente che il modello quantitativo interpreta tutti questi dati in modo estremamente positivo. Poco importa se lo stimolo fiscale e monetario non serve a un rilancio dell’economia ma è solo finalizzato a impedire l’insolvenza del sistema, anche in questo caso è solo il dato che conta e non la sua interpretazione. La macchina, dotata di intelligenza artificiale, vede tutti questi stimoli come denaro pronto a sostenere investimenti nell’economia reale, uno scenario a cui poi si aggiunge di questi tempi il tema del vaccino”.

Il problema è che le persone si chiedono se quello che vedono corrisponde alla realtà perché hanno sensazioni di benessere o malessere che dipendono dal loro stato personale, mentre l’approccio quantitativo prende il dato per quello che è. Guardando le cose da questo punto di vista, appare abbastanza chiaro come mai ci sia una spinta così forte verso la gestione passiva e quantitativa da parte dell’industria finanziaria americana, mentre si tenda a ridimensionare l’approccio analitico/discrezionale, che di norma si fa troppe domande in un mondo che deve avere solo certezze. Ma se i comportamenti delle persone sono difficili da gestire e spesso producono crisi e rivoluzioni, anche i comportamenti dei modelli quantitativi sono esposti a fallacità.

La crisi dei mutui del 2008 è stata anche creata dall’uso di modelli quantitativi fuorvianti sull’effettivo rischio contenuto nei Mortgage Backed Securities (titoli garantiti da ipoteche su immobili). I risultati dei modelli dipendono sempre dai dati che gli si vuole fornire e oggi la situazione non è diversa rispetto al passato. Un altro fattore che accentua il rischio è la velocità di reazione con la quale le macchine, tutte assieme, inviano gli ordini al mercato e come il mercato venga privato della liquidità in pochi secondi. Molti modelli di gestione quantitativa si basano sul concetto di volatilità o sullo scostamento medio di prezzo. Se c’è un’anomalia nella rilevazione di tali dati gli algoritmi interrompono l’attività in attesa di nuove istruzioni e il mercato entra in totale blocco. Questo è spesso il motivo che procura i flash crash, repentine cadute nel vuoto delle quotazioni, che inducono i sistemi operativi a bloccare le contrattazioni. I ribassi sono dunque più ampi e violenti e per gli investitori è praticamente impossibile uscire dal mercato in tali condizioni, dato che la liquidità sparisce e le perdite si ampliano troppo per essere accettate.

L’attuale rischio di liquidità è sottostimato da quasi tutti i modelli quantitativi. Le banche centrali devono dunque intervenire per cercare di risolvere il problema ed evitare il default del sistema, ma soprattutto devono fare in modo che i soldi che sono investiti sui mercati rimangano investiti per sempre. Questo meccanismo tende a generare la percezione che il sistema sia protetto da qualsiasi rischio e induce gli investitori ad accentuare la predisposizione al rischio, disertando gli investimenti nei safe asset, che vengono acquistati dalle banche centrali per concentrare sempre più le posizioni sugli asset di rischio. Ma più si alimenta questo fenomeno e maggiore è il rischio a cui si espone il sistema se qualcosa va storto.

Maurizio Novelli

“Finora siamo riusciti a superare le crisi finanziarie con costi sempre maggiori per l’economia reale e sempre minori per l’industria finanziaria, dato che i salvataggi sono sempre stati sulle spalle di chi paga le tasse. Inoltre, non possiamo ignorare che da ogni crisi si è ripartiti con maggiore debito e maggiore leverage di prima per finanziare una crescita sempre più debole”, conclude Novelli. “Il punto ora è capire se i consumatori degli Stati Uniti saranno disposti ad aumentare ulteriormente il loro indebitamento oltre gli attuali livelli o se si entrerà in una fase di contenimento del debito e di deleverage”.

Related Posts

Lascia un commento