mercoledì 21 ottobre 2015

Quando la fisica arriva a Wall Street

 

Negli  ultimi  anni  ha  visto la luce, un  nuovo  campo  scientifico  interdisciplinare, l’econofisica (contrazione di economia e fisica) che applica i concetti della fisica statistica ai sistemi economici/finanziari considerati come sistemi complessi che evolvono. Anche se nato da poco questo campo sta vedendo un interesse in netto aumento con tante pubblicazioni e meeting annuali. La ricerca condotta nel campo dell’econofisica puo’ essere divisa in due grossi filoni: econofisica statistica ed econofisica basata sugli agenti (agent-based). Entrambi questi sotto campi hanno le stesse fondamenta poiche' considerano i sistemi socioeconomici come sistemi complessi. Entrambi inoltre evitano di fare assunzioni a priori e basano la loro metodologia sulle verifiche empiriche. Pur tuttavia c’e’ una differenza in quanto non usano la stessa metodologia computazionale. Mentre l’econofisica ad agent-based tratta modelli microscopici applicati ad agenti eterogenei e con capacita’ di apprendimento, l’econofisica statistica usa degli agenti con intelligenza zero (in questo caso il sistema e' immaginato come costituito da particelle che quindi “non pensano”) le cui interazioni sono completamente casuali. Mentre l’econofisica a “agent-based” cerca di riprodurre le regolarita’ statistiche osservate nei sistemi economici/finanziari, l’econofisica statistica cerca di descrivere queste regolarita’ direttamente dall’evoluzione di questi sistemi. In definitiva esiste un’unica econofisica anche se i fisici hanno sviluppato due differenti modi di trattare le regolarita’ statistiche che caratterizzano la complessita’ dei sistemi economici.

Econofisica statistica

L’econofisica statistica come gia’ detto e’ l’applicazione della fisica statistica all’economia e spesso associata con i cosiddetti “fatti stilizzati”. Questi si riferiscono ai fatti empirici che nascono dallo studio statistico delle serie temporali della finanza e che sembrano essere persistenti nel tempo, locazione geografica e mercati. Poiche’ questa disciplina si fonda sull’analisi delle serie temporali essa richiede molti dati storici sui prezzi, volumi o transazioni.

Alcuni dei risultati di queste analisi hanno portato a modelli che descrivono fenomeni quali: la distribuzione empirica dei ritorni con code “larghe (fat)”, l’assenza di autocorrelazioni o il clustering della volatilita’ (piu’ avanti questi concetti saranno ripresi in dettaglio).

In quest'ambito i sistemi economici sono pensati  come costituiti da elementi multipli che interagiscono tra loro in modo da generare delle macro-proprieta’ del sistema. Queste macro-proprieta’ possono essere caratterizzate in termini di regolarita’ statistiche. Contrariamente all’economia, l’econofisica statistica stabilisce che solo le macro-proprieta’ del sistema possono essere osservate e analizzate. Non c’e’ alcuna modellizzazione del comportamento razionale delle persone come nell’econofisica a “agent-based”.

Econofisica ad agenti

Contrariamente all’econofisica statistica, l’econofisica ad agenti e’ basata su un approccio micro piuttosto che macro, in quanto essa analizza il comportamento del singolo componente. In questo caso i singoli agenti sono visti come eterogenei e possono differire in tantissimi modi: geneticamente, culturalmente, attraverso i social networks, per le preferenze ecc. Mentre nel caso dell’econofisica statistica si utilizzano i dati storici con agenti a intelligenza zero, nel caso dell’econofisica ad agenti sono utilizzati i dati generati dai modelli che auto-evolvono (con agenti che apprendono). Entrambi i campi sono complementari: da un lato l’utilizzo della statistica da’ un insieme di informazioni quantitative sulle macro-regolarita’ osservate nel mondo complesso dell’economia, dall’altro la modellizzazione ad agenti fornisce i micro-fondamenti per le regolarita’ statistiche che emergono a un livello macro del sistema socio-economico.

Un modello attribuisce agli operatori finanziari una linea di condotta equiparabile al “comportamento del branco”. Secondo questo modello, le reti di informazione crescono fino a spingere interi “cluster” di operatori a muoversi sulla base delle notizie acquisite; a tale movimento di gruppo, segue di norma un rallentamento e poi una ripartenza in base a nuove notizie. Studiando accuratamente l’andamento dei listini, un altro gruppo di studiosi ha rilevato la presenza di una relazione secondo la quale la fluttuazione di un prezzo si muove come l’inverso della quarta potenza della sua frequenza, indipendentemente dalle proporzioni della fluttuazione medesima. Questa legge di potenza non è prevedibile con i tradizionali modelli di fluttuazioni. Vale la pena citare brevemente anche il modello di mercato sviluppato da Victor Eguíluz, del Niels Bohr Institute di Copenhagen, e Martín Zimmermann, dell’Università di Buenos Aires. Nel loro modello, gli agenti di Borsa sono rappresentati dai vertici di una rete di connessioni casuali. Gli agenti connessi tra loro rappresentano gruppi di investitori che condividono le stesse informazioni, opinioni o strumenti di analisi e fanno acquisti identici. Il modello porta a una legge di distribuzione delle fluttuazioni di mercato in ottimo accordo con i dati reali.

L’emergenza di nuovi strumenti statistici

Negli ultimi cinquanta anni, l’indice leptocurtico ha generato tantissimi dibattiti in finanza. L’indice di curtosi in statistica determina la forma di una distribuzione “misurando” lo “spessore” delle code. Per la distribuzione di Gauss ci sono tre possibilita’: curva leptocurtica, normocurtica e platicurtica. La prima e’ molto concentrata intorno alla media, la seconda e’ normalmente concentrata intorno alla media e l’ultima e’ poco concentrata intorno alla media.

La teoria dei mercati efficienti fin dalla sua nascita era basata sull’ipotesi che le fluttuazioni degli indici finanziari fossero sostanzialmente casuali. Da un punto di vista fisico questo equivale a un comportamento browniano.

Il moto e’ molto irregolare e la traiettoria sembra non avere tangente in alcun punto. Il movimento delle diverse particelle e’ indipendente e la loro composizione e densita’ non ha alcun effetto sul moto. Piu’ le particelle sono piccole, il fluido meno viscoso e la temperatura piu’ elevata e piu’ il moto e’ attivo. Esso non cessa mai. Aumentando la risoluzione del microscopio e variando la scala di osservazione si vede sempre un moto simile. Questa proprieta’ va sotto il nome di autosimilarita’ o invarianza di scala. Queste fluttuazioni casuali si distribuiscono secondo una legge Gaussiana la cui ampiezza o standard deviation aumenta nel tempo:

σ~√t

Comunque il rumore associato ai sistemi finanziari spesso esibisce comportamenti anomali con salti completamente imprevisti degli indici e senza nessuna apparente spiegazione. Vedi come esempio il confronto riportato di seguito:

Dagli anni 60 molti scienziati tra cui Mandelbrot, ispirati dal lavoro di Levy e Gnedenko/Kolmogorov proposero una legge di Pareto (un caso specifico del cosiddetto processo stabile di Levy) per descrivere l’evoluzione non gaussiana del logaritmo dei prezzi P.

In genere in econofisica piu’ che lavorare direttamente sui prezzi si preferisce usare i cosiddetti ritorni finanziari. Quest’ultimi sono definiti come il logaritmo naturale dei cambiamenti di un indice finanziario X in un certo intervallo che puo’ variare da pochi secondi a molti giorni.

S(t)=ln(X(t+dt))-ln(X(t))

I processi stabili di Levy sono dei processi casuali infinitamente divisibili ed hanno la proprieta’ di scalare (autosimilarita’) nel senso che le variabili finanziarie (giornaliere, settimanili, mensili...) possono essere studiate con una distribuzione stabile della stessa forma per ogni livello di granularita’. I movimenti di Levy sono dei processi che seguono una legge α-stable del tipo:

P(X>x)=x-α

con alfa un parametro costante con valore tra 0 e 2 (vedi figura qui sotto con distribuzione di Levy a diversi valori del parametro alfa).

Qui di seguito la distribuzione del logaritmo dei ritorni dell’indice messicano IPC dal 19 Aprile 1990 al 17 Settembre 2004 e quella del DJ dal 19 Aprile del 1990 al 17 Settembre del 2004. Osservare come queste due distribuzioni siano lontane dall’essere Gaussiane (code molto larghe).

Il parametro alfa si riferisce alla forma della distribuzione: piu’ alfa e’ basso e piu’ frequentemente possiamo osservare eventi estremi (eventi situati nelle code). Quest’ultimi sono molto piu’ frequenti quanto si analizzano i ritorni di un indice su tempi corti (grafico b e c) contrariamente a quanto accade invece per del rumore Gaussiano (grafico d).

Le leggi di potenza (y=cx-a) e le proprieta’ di scaling sono oggi molto comuni e sono state individuate in moltissimi fenomeni fisici come i terremoti, DNA, diffusione delle epidemie, il volo degli albatros e cosi via. Secondo quanto riportato dallo scienziato  Dubkov:

“ E’ meraviglioso come la stessa equazione di diffusione possa descrivere il comportamento dei neutroni in un reattore nucleare, la luce nell’atmosfera, la variazione degli indici di borsa, il movimento delle particelle di polvere sospese in un fluido ecc. Il fatto che fenomeni completamente diversi vengono descritti dalle stesse identiche equazioni e’ un’indicazione diretta che il problema non riguarda il meccanismo concreto del fenomeno quanto piuttosto le qualita’ comuni della classe di fenomeni simili.”

Le leggi di potenza sono le impronte dei sistemi complessi in natura e societa’. E’ logico quindi pensare a sistemi al di fuori dell’equilibrio, stati critici, auto-organizzazione, vita all’edge del chaos e criticita’ auto-organizzata (SOC), tutti temi trattati piu’ volte in questo blog.

Agli inizi del 1990, a causa del valore non finito della varianza della distribuzione stabile di Levy (L_stable), fu introdotta una nuova tecnica statistica: il troncamento della distribuzione stabile di Levy (TLF) cioe’ una sua normalizzazione usando una particolare funzione in modo da evitare una varianza infinita. In quest’ottica le distribuzioni di Levy stabili vengono utilizzate con la condizione che ci sia una lunghezza di “cut-off” per la variazione dei prezzi al di sopra della quale la distribuzione diventa normale. In genere si scrive:

P(X>x)=Pα(x)φ(x)=x-α φ(x)

dove Pα e’ la distribuzione stabile di Levy e la funzione φ(x) e’ quella di troncamento che permette di ottenere una varianza finita. Questa funzione puo’ assumere forme diverse e la sua scelta dipende solo dalla bonta’ dell’adattamento del modello ai dati empirici. Qui di seguito un esempio di fitting dei dati utilizzando la distribuzione stabile di Levy (stable) la distribuzione TLF e la distribuzione normale utilizzando i ritorni dell’indice S&P500 dal 1926 al 2009. L’asse verticale e’ in scala logaritmica in base 10 per vedere meglio le code. Si osserva che la distribuzione normale non e’ adeguata per ritorni al di sotto e al di sopra del 15%. La distribuzione di Levy stabile si adatta bene ai dati anche se le code si estendono oltre il valore massimo e minimo storico dei ritorni. Questo risulta in una varianza infinita. La distribuzione TLF e’ quella che si adatta bene ai dati ed ha le code troncate cosi come si vede nella realta’ (varianza finita). La questione delle code e’ molto importante quando si deve stabilire il rischio di un ribasso del prezzo. La distribuzione normale infatti tende a sottostimare questo rischio. I ritorni negativi possono avere valori ben piu’ alti di quanto previsto dalla legge Gaussiana. Mantegna e Stanley (due studiosi di econofisica) hanno dimostrato che per piccoli intervalli temporali (per es. 1 minuto) la distribuzione TLF si approssima a quella di Levy stabile mentre per ampi ma finiti intervalli temporali (per esempio 1 anno) la distribuzione TLF converge lentamente alla distribuzione Gaussiana. In altre parole, man mano che aumenta il tempo di osservazione passiamo da una distribuzione di Levy stabile a una Gaussiana passando per la TLF.

Le crisi finanziarie

Come la meccanica quantistica e la statistica ci hanno insegnato viviamo in un mondo dominato dall’imprevedibilità. Eppure fin dalla sua comparsa sulla terra l’uomo ha cercato di prevedere il futuro ma senza grandi successi. Come riportato da Taleb nel suo Cigno nero (l’evento rarissimo e imprevedibile, con un impatto enorme e che cerchiamo di giustificare post mortem per renderlo meno casuale di quanto non sia in realta’): “per prevedere e’ necessario conoscere le tecnologie che saranno scoperte in futuro, ma tale conoscenza ci permetterebbe quasi automaticamente di iniziare a svilupparle adesso. Ergo, non sappiamo quel che sapremo.” E ancora “e’ impossibile prevedere il futuro guardando alla storia in quanto la storia ha tantissimi gradi di liberta’ ”. In altre parole se abbiamo una sequenza di numeri e cerchiamo di prevedere il prossimo abbiamo infinite scelte cioe’ infiniti gradi di liberta’. Supponiamo di avere dei numeri positivi crescenti. La cosa piu’ ovvia e’ quella di pensare che in futuro il trend sara’ ancora in crescita. Ma cio’ potrebbe essere sbagliato semplicemente perche’ la sequenza iniziale altro non e’ che la parte in salita di una funzione seno oppure la parte del ramo di una parabola e cosi via. Tutti sappiamo che praticamente e’ impossibile prevedere un terremoto, una valanga, una rivoluzione, un’estinzione, la reazione di un cane a un nostro calcio. Guardiamo per esempio il grafico qui di seguito e cerchiamo di capire come potrebbe continuare il trend dopo la linea gialla.

Una possibilita’ (seguendo i baffi del mitico Dali) potrebbe essere un andamento che continua a essere stabile con oscillazioni intorno a 45. Sara’ cosi?

Questo e’ il grafico reale. Tra 6000 e 5000 anni fa si vede una caduta repentina del tutto imprevedibile guardando i dati precedenti. Il cigno nero e’ entrato in azione.

E la stessa sorte tocca anche alle crisi finanziarie. Non possono essere previste. Nonostante cio’ l’obiettivo degli economisti e di limitare i danni potenziali. In che modo? Cercando di capire l’incertezza finanziaria. Dal 1970 sono stati sviluppati molto modelli per descrivere l’evoluzione dei mercati finanziari. Questi modelli assumono che i mercati siano dei sistemi “tranquilli” dove gli eventi estremi sono assenti. Purtroppo nella realta’ questo non e’ vero. Le diverse crisi finanziarie degli ultimi anni hanno mostrato che i mercati finanziari sono piu’ volatili e turbolenti di quanto si pensasse. L’inadeguatezza dei modelli tradizionali e’ stata una delle cause che hanno favorito lo sviluppo dell’econofisica. La crescita di quest’ultima nelle pagine delle riviste di fisica ha probabilmente contribuito al suo riconoscimento ufficiale e dal 2003 e’ una sotto-categoria della fisica.

Il filone dei modelli predittivi delle crisi finanziarie risalgono agli anni 90. Molti studiosi hanno lavorato su questo tema tra cui Didier Sornette dell’Universita’ della Svizzera a cui si deve il termine di “re drago” in opposizione al “cigno nero” di Taleb. Sornette e altri hanno sviluppato una teoria chiamata appunto “dragon king”. Con questo termine ci si riferisce a eventi estremi come i cigni neri ma che sono pero’ dei casi a parte, cioe’ sono speciali. Sono generati da meccanismi specifici che potrebbero renderli prevedibili e forse controllabili. Consideriamo ad esempio la serie temporale del valore finanziario di una data azione. Avremo degli andamenti altalenanti. Una buona misura del rischio di questo mercato finanziario è dato dall'ampiezza della differenza tra alti e bassi che rappresentano lo scenario peggiore, quando e’ stato comprato al massimo e venduto al minimo. La frequenza di questa circostanza di alti e bassi di diversa entità, e’ riportata nel grafico sottostante. E’ interessante notare che il 99% delle differenze tra alti e bassi di diversa ampiezza può essere rappresentato da una potenza universale rappresentata dalla linea rossa. Ancor più interessante, ci sono casi estremi, eccezioni che sono al di sopra di questa linea rossa, che capitano con una frequenza almeno 100 volte superiore a quanto l'estrapolazione preveda basandosi sulla calibrazione del restante 99% di alti e bassi. Sono dovuti a dipendenze drastiche, cosicché a perdite seguono altre perdite seguite da altre perdite, che sono seguite da altre perdite. Questo tipo di dipendenza viene largamente mancato dai normali strumenti di gestione del rischio, che li ignora e vede lucertole dove dovrebbe vedere draghi. Il meccanismo alla base di un dragon-king è una lenta maturazione verso l'instabilità, ossia la bolla finanziaria, e il culmine della bolla spesso e’ lo scoppio. È simile al lento riscaldamento dell'acqua in una provetta che raggiunge il punto di ebollizione, a cui si verifica l'instabilità dell'acqua e si passa alla fase di transizione verso il vapore. Questo processo, che è assolutamente non lineare non può essere previsto da tecniche standard, ma è il riflesso di un comportamento collettivo emergente che è sostanzialmente endogeno. Quindi la causa del crollo (crisi) deve essere cercata in un’instabilità insita nel sistema, che qualunque piccola perturbazione puo’ far scattare.

Ci sono molti segnali d'allarme che vengono previsti da questa teoria (early warning o weak signals in inglese). Uno di essi e’ la crescita super-esponenziale con riscontri positivi. Cosa significa? Immaginiamo di avere un investimento che rende cinque per cento il primo anno, dieci per cento il secondo anno, venti per cento il terzo anno, quaranta per cento il quarto anno. Non è meraviglioso? È una crescita super-esponenziale. Una crescita esponenziale standard corrisponde a un tasso di crescita costante, diciamo del dieci per cento. Il punto è che, molte volte durante le bolle, ci sono riscontri positivi, più volte, tanto che la crescita precedente incrementa, spinge, e aumenta la crescita successiva attraverso questo tipo di crescita esponenziale, che è molto incisiva, e non sostenibile. E l'idea chiave è che la soluzione matematica di questa classe di modelli mostra un numero limitato di singolarità il che significa che ci sara’ un momento critico tc in cui il sistema si spezzerà, cambierà regime. Potrebbe essere un crollo. Potrebbe essere solo una stabilizzazione, o qualcos'altro. L'idea chiave è che l'informazione sul momento critico è contenuta nelle prime fasi dello sviluppo di questa crescita super-esponenziale. Questa teoria e’ stata applicata con successo nella diagnostica della rottura degli elementi metallici utilizzati per i razzi spaziali. Ancor più sorprendente è che lo stesso tipo di teoria si applica alla biologia e alla medicina, al parto, e agli attacchi epilettici. Dai sette mesi di gravidanza, una madre comincia a sentire episodi anticipatori delle contrazioni dell'utero che sono i segni di queste maturità che vanno verso l'instabilità, cioe’ quella di dare alla luce il bambino, il dragon-king. Se si misurano i segnali premonitori, si possono identificare problemi pre e post-maturità in anticipo. Gli attacchi epilettici si verificano anche loro in misura diversa, e quando il cervello entra in uno stato super-critico, ci sono i dragon-king che hanno un certo grado di prevedibilità e questo può aiutare il paziente ad affrontare meglio questa malattia. Questa teoria e’ stata applicata a molti sistemi, tra cui smottamenti e crolli di ghiacciai anche se l’applicazione più importante è nella finanza. Adottando una formulazione simile a quella dei precursori dei terremoti, Sornette ha postulato che i prezzi delle azioni seguono un pattern log-periodico prima che avvenga la crisi:

per t<tc.

Questa equazione genera fluttuazioni intorno al trend del prezzo con frequenza sempre maggiore. Qui pt indica il prezzo dell’azione al tempo t. Il tempo tc rappresenta il tempo critico e cioe’ una singolarita’ dopo la quale ci sara’ un crash. A, B, C, m, ω, tc e Φ sono tutti parametri liberi del modello. Purtroppo non tutte queste previsioni fatte in anticipo dal gruppo di Sornette si sono poi materializzate. Come puo’ essere visto nella figura che segue, per l’indice tedesco DAX la previsione fatta nel 2003 per gli anni successivi non e’ stata proprio felice visto la non perfetta correlazione tra il fit (linea continua e tratteggiata) e il dato reale.

Questo modello ha generato enorme eccitazione tra gli studiosi e sulla stampa nonche’ un elevato numero di articoli. Nonostante cio’ quasi nessuno sembra essere riuscito a riprodurre i risultati del gruppo di Sornette (vedi Thomas Lux 2007).

Altri gruppi di studiosi come per esempio gli ecologisti Cees Dicks, Cars Hommes, Marten Scheffer, Stephen Carpenter solo per citarne alcuni stanno cercando di applicare metodologie diverse per provare a prevedere le transizioni critiche analizzando gli early signals. Sono transizioni critiche per esempio l’improvvisa desertificazione di una regione, la morte di un lago a causa di alghe assassine, l’improvvisa scomparsa di una particolare specie animale, il crollo di un titolo e cosi via. Riconoscendo che i sistemi economici sono da considerare dei sistemi complessi non puo’ essere accettata l’idea tradizionale di un sistema economico all’equilibrio. Essi vanno considerati come dei processi a piu’ stati di equilibrio come accade in ecologia. Quindi i crolli dei mercati vengono guidati principalmente da eventi endogeni e una possibile previsione richiede la comprensione dei meccanismi alla base di questi sistemi. Gli early signals utilizzati in questi modelli si basano principalmente sulla misura del cosiddetto rallentamento critico (critical slowing down) in cui il sistema si porta quando si avvicina a una transizione critica. Il primo a suggerire di utilizzare queste tecniche per i dati finanziari e’ stato Marten Sheffer (professore di scienze ambientali) nel 2009. L’idea di base e’ quella che le transizioni critiche in un sistema complesso avvengono quando il suo attrattore (vedi post precedente su questo blog per i dettagli) scompare forzando il sistema a saltare attraverso una fase transiente in un nuovo attrattore. La figura seguente mostra un esempio di sistema di questo tipo dove all’aumentare di un parametro di controllo emerge un punto critico (tipping point). In questa situazione anche una piccola perturbazione puo’ indurre il sistema a significativi cambiamenti. Una volta che si supera la soglia (F1) l’intero sistema transita verso un diverso attrattore. Anche se il parametro di controllo e’ riabbassato, il sistema rimarra’ vicino al nuovo attrattore. Solo spostando il parametro di controllo ben oltre la soglia F1 si potra’ riconquistare il precedente stato (soglia F2). Questo tipo di comportamento si chiama isteresi.

Quando un sistema dinamico si avvicina al punto critico esso diventa significativamente lento nel recuperare l’equilibrio dopo una piccola perturbazione essendo il bacino di attrazione poco profondo e quindi la forza di richiamo al punto di equilibrio diminuisce (condizione b nella figura sopra). In questa condizione (critical slowing down) si dice anche che il sistema e’ poco resiliente in quanto una piccola sollecitazione non lo fa ritornare al suo punto di equilibrio. Avvicinandosi quindi a un punto critico il sistema complesso diventa sempre meno resiliente, aumenta la sua variabilita’ (le oscillazioni nella buca sono piu’ ampie) e addirittura puo’ iniziare a visitare il nuovo bacino di attrazione senza ancora caderci definitivamente dentro cosa che succede appena oltre c (figura sopra). Questa teoria e’ stata applicata alle seguenti serie temporali finanziarie per verificare se fosse possibile prevedere le transizioni critiche del passato dove c’erano stati dei chiari crolli:

Come early signals sono stati utilizzati il coefficiente di autocorrelazione (lag 1) e la varianza dei ritorni (vedi post precedente su questo blog). La figura sottostante mostra l’analisi dei segnali deboli 6 mesi circa prima del cosiddetto “Lunedi nero” analizzando l’indice S&P500. In a) e’ riportato il logaritmo dell’indice originario. La linea verticale identifica la transizione critica dell’indice avvenuta nel 1987. La linea centrale rossa mostra la tendenza dell’indice (smoothing line). La freccia mostra la finestra che viene spostata lungo l’asse temporale per prendere i valori su un intervallo prefissato. Spostandosi verso destra si aggiungono nuovi valori mentre vengono rimossi quelli a sinistra una volta che escono dalla finestra (rolling trend). Nella sezione b) vengono mostrati i residui rispetto alla linea centrale di trend (cioe’ rispetto alla linea rossa). In c), d) vengono riportati gli indici di autocorrelazione mentre in e) quello di varianza. Essi mostrano abbastanza chiaramente che il grande crollo del “Lunedi nero” viene preceduto da un trend a salire suggerendo che il sistema S&P500 mostra un rallentamento critico (critical slowing down) prima di raggiungere il punto di transizione critica. Risultati analoghi sono stati ottenuti per la crisi asiatica e la bolla del Dot-com. Invece per la crisi finanziaria del 2008 i risultati non sono stati univoci nel senso che parametri diversi hanno mostrato trend opposti. Questo suggerisce che la metodologia del rallentamento critico da sola non basta e se si vuole aumentare l’accuratezza delle previsioni bisogna trovare altri metodi piu’ sofisticati.

 

 I fatti stilizzati

Vengono chiamati in questo modo i macro-pattern osservati in differenti situazioni e che appaiono avere una verita’ empirica. In altre parole l’econofisica statistica studia i fatti empirici che non possono essere spiegati dai modelli teorici dell’economia.

1. Fat-tail: L’inadeguatezza nel descrivere le distribuzioni finanziarie con la distribuzione Gaussiana e l’introduzione di distribuzioni con code “larghe” e’ stato uno dei primi fatti stilizzati e probabilmente quello all’origine dell’econofisica.

2. Autocorrelazione: Un altro fatto stilizzato studiato dall’econofisica si riferisce all’osservazione nei dati reali di correlazioni e auto-correlazioni tra le variabili come i prezzi delle azioni, i ritorni, i volumi delle transazioni ecc. L’assunzione di un modello Gaussiano invece, implica l’assenza di auto-correlazioni per i ritorni finanziari cioe’ una loro indipendenza dalla scala temporale.

3. Clustering: le proprieta’ statistiche delle distribuzioni cambiano col tempo. Una tra queste caratteristiche piu’ conosciuta e’ il raggruppamento (clustering) della volatilita’. I grandi cambiamenti tendono a essere seguiti da cambiamenti grandi di entrambi i segni mentre i piccoli cambiamenti tendono a essere seguiti da piccoli cambiamenti. Piu’ precisamente i ritorni assoluti o elevati al quadrato mostrano una funzione di auto-correlazione che decade lentamente nel tempo.

4. Aggregazione normale: aggregando i ritorni dei prezzi su scale temporali sempre piu’ lunghe fa si che la distribuzione si sposti da fortemente leptocurtica a quasi normale (gaussiana).

Macroeconomia e organizzazioni industriali

Molti studiosi si sono dedicati anche allo studio dei moltissimi dati generati dalle aziende come vendite, numero di impiegati, numero di pezzi prodotti ecc. Tra questi G. Stanley ha analizzato le aziende americane utilizzando il data base Standard and Poor’s COMPUSTAT. Qui di seguito quello che ha trovato:

1. La dimensione delle aziende americane segue una distribuzione log-normale

2. Esiste una relazione tra la deviazione standard σ dei tassi di crescita delle aziende e la dimensione s:

con beta quasi uguale a 0.2.

3. La densita’ condizionale dei tassi di crescita annuali delle aziende p(rt|st-1) con s la dimensione dell’azienda (per es. il numero di impiegati) e r il suo tasso di crescita, rt=st-st-1 ha una forma esponenziale:

La proprieta’ 1) e’ ben conosciuta e prende il nome di legge di “Gibrat dell’effetto proporzionale”: se il processo di crescita delle aziende e’ guidato da un semplice processo stocastico con tassi di crescita indipendenti e distribuiti normalmente, allora la dispersione delle dimensioni delle aziende all’interno dell’economia segue la distribuzione log-normale. Non tutti gli studiosi, comunque sono concordi   sulla  distribuzione log-normale.   Alcuni    infatti   ritengono  che  la  distribuzione di Pareto  

s~s0r-0.6

con coefficiente uguale a -0.6 sia piu’ adatta a fittare i dati reali (di nuovo una legge di potenza). r rappresenta il ranking delle aziende in base alla loro dimensione. Se l’azienda piu’ grande di America, per esempio, ha 100000 impiegati, allora quella in posizione dieci ne avra’ ~10. Questo significa che le persone si aggregano insieme per formare un’azienda e le aziende a loro volta si aggregano insieme. Gli impiegati di un'azienda hanno abilita’ eterogenee, esibiscono una razionalita’ limitata e interagiscono direttamente uno con l’altro fuori dall’equilibrio in team di produzione. Ogni impiegato fa parte di un’azienda e ogni azienda ha una sua locazione spaziale (geografica). Spesso gli impiegati tendono a cambiare azienda per avere uno stipendio maggiore o addirittura per creare una nuova azienda. Nel tempo il movimento di questi lavoratori da un’azienda a un’altra si combina con il movimento delle aziende da una locazione a un’altra dando origine a dei clusters di lavoratori e di aziende. Questo modello oltre a spiegare la legge di potenza osservata per le aziende spiega anche quella osservata per la dimensione delle citta’ come evidenziato nel grafico sottostante.

Conclusioni

Qualunque cosa faccia il mercato azionario, la gente vuole sapere come l’ha fatta, perché, e per quale motivo non ha fatto qualcosa di diverso

Richard S. Wurman, professore al Massachusetts Institute of Technology di Boston uno dei massimi esperti mondiali di gestione dell’informazione, ben descrive con queste parole l’ansia da informazione che affligge il nostro tempo.

Lo studio dei mercati finanziari finalizzato a una previsione tendente a matematiche certezze, è destinato ad avere sempre più un ruolo primario per l’economia globale. Una simile tendenza è stata fotografata dalla rivista Science attraverso un’indagine fatta un po’ anni fa dalla quale si evince che “nel 2007 due studiosi su quattro che hanno ricevuto il dottorato in fisica teorica a Harvard, lavorano a Wall Street ... dei circa venti che hanno ricevuto il dottorato in fisica teorica durante gli ultimi cinque anni dall'università di Stanford, solo due o tre lavorano ancora nel campo della fisica, mentre otto o nove stanno lavorando nella finanza”. L’impiego dei fisici in altre discipline come l’economia e’ stato possibile grazie ai nuovi concetti emersi negli ultimi anni.  Il “riduzionismo”, il concetto di “equilibrio asintotico”, la “linearità” dei modelli, che hanno caratterizzato da sempre la fisica newtoniana, stanno lasciando il posto allo studio delle dinamiche non lineari. L’introduzione massiccia dei calcolatori ha permesso lo studio delle dinamiche non lineari in maniera nativa e senza la necessità di effettuare approssimazioni. La fisica e la matematica, sono state interessate da un proliferare di nuovi concetti come quelli di caos deterministico, frattali e complessità, che ne hanno letteralmente rivoluzionato l’approccio creando nuovi settori di ricerca. Come gia’ ribadito piu’ volte in questo blog nei sistemi complessi, piccole perturbazioni si amplificano fino a generare modelli del tutto imprevedibili secondo leggi deterministiche; modelli che comunque si dimostrano robusti e stabili. Il mercato globale presenta le medesime caratteristiche di un sistema complesso governato da dinamiche non lineari, caos deterministico e processi stocastici. Per Eugene Stanley, professore di fisica alla Boston University e gia’ citato in questo post, dal punto di vista della meccanica statistica, l'economia è un semplice fenomeno e conoscere le leggi della fisica facilita, indubbiamente, il compito di maneggiare ampi insiemi di dati. Ecco quindi spiegato il connubio fra fisica ed economia, connubio dal quale, nel 1997, ha avuto origine l’Econofisica.

http://www.wikio.it