venerdì 19 maggio 2017

Il caso come migliore strategia?

 

Nelle scienze e in fisica in particolare, il rumore e la casualita’ vengono tenute ai livelli piu’ bassi possibili allo scopo di evitare qualsiasi influenza sul fenomeno sotto osservazione anche se questo non e’ sempre possibile. Nonostante i nostri sforzi spesso la casualita’ non puo’ essere eliminata del tutto. Ma siamo sicuri che questo e’ un male? Forse no, visti i numerosi esempi in cui la casualita’ si e’ dimostrata essere un vantaggio specialmente nelle scienze sociali come nel caso del cosiddetto principio di Peter come riportato da un team di fisici italiani (link). In particolare il principio di Peter stabilisce che e’ possibile frenare la diffusione di incompetenze in gruppi gerarchici utilizzando delle strategie di promozione guidate dal caso, ottenendo cosi un aumento dell’efficienza globale dell’organizzazione. Questo principio venne enunciato per la prima volta da Lawrence Peter, uno psicologo canadese nel 1960. Il principio stabilisce che “in un’organizzazione ogni membro passa da un livello gerarchico a quello successivo come risultato di promozioni meritocratiche fino a quando non raggiunge il suo livello minimo di competenza cioe’ al livello di massima incompetenza”. Anche se questo puo’ sembrare un effetto perverso sicuramente accade quando in una gerarchia, i membri che dimostrano doti e capacità nella posizione in cui sono collocati vengono promossi ad altre posizioni. Questa dinamica, di volta in volta, li porta a raggiungere nuove posizioni, in un processo che si arresta solo quando accedono a una posizione poco congeniale, per la quale non dimostrano di possedere le necessarie capacità: tale posizione è ciò che Peter intende per «livello di incompetenza», raggiunto il quale la carriera del soggetto si ferma definitivamente, dal momento che viene a mancare ogni ulteriore spinta per una nuova promozione. Grazie a simulazioni numeriche il team di fisici italiani ha dimostrato che il principio risulta essere vero sotto particolari assunzioni e che e’ possibile superare i suoi effetti solo se vengono effettuate delle promozioni a caso. E cosa succede se invece di considerare un’istituzione prendiamo in esame i mercati finanziari? Chi non sarebbe disposto a pagare per ottenere una strategia vincente? Ma se il mercato e’ del tutto casuale non ci sara’ strategia che tenga. Eppure c’e’ tanta gente che dice di arricchirsi con la borsa. Nel 2001 uno psicologo inglese, Richard Wiseman, esegui’ un esperimento per verificare la potenza predittiva delle strategie di trading nel mercato finanziario. Egli diede la stessa quantita’ di soldi a tre differenti persone: uno specialista delle finanze (che ovviamente si affidava ai suoi algoritmi), un astrologo (che si affidava alle stelle) e ad un bambino di 4 anni (giocando completamente a caso), chiedendogli di investire i soldi nel mercato azionario inglese. Dopo un anno il risultato della competizione fu del tutto inaspettato. Il trader e l’astrologo avevano perso il 46.2% e il 6.2% del loro capitale iniziale mentre il bambino aveva guadagnato il 5.8%. Esperimenti come questo sono stati fatti anche sostituendo il bambino con uno scimpanze’ o selezionando le azioni con il tiro delle freccette. Il risultato e’ sempre stato lo stesso. La conseguenza piu’ importante di questi esperimenti e’ che i prezzi non sono prevedibili e che quindi il mercato e’ efficiente. Gli studiosi hanno a lungo dibattuto e ancora oggi lo fanno sull’ipotesi dei mercati efficienti. I prezzi sono o non sono prevedibili? Negli ultimi anni si e’ assistito ad un leggero declino dell’ipotesi e si e’ diffusa l’idea che i prezzi siano prevedibili almeno parzialmente. E questo permette agli investitori di guadagnare un eccesso di rendimento una volta tenuto conto del rischio. Ma le cose stanno veramente cosi? Spinti dai risultati di Wiseman e altri, il gruppo di fisici italiani ha voluto testare l’ipotesi dell’efficienza dei mercati utilizzando delle simulazioni numeriche e considerando  il titolo FTSE UK All-Shares. Nel pannello (a) della figura seguente e’ riportato l’andamento del titolo dal primo Gennaio del 1998 fino al 3 Agosto del 2012 per un totale di 3714 giorni mentre nel pannello (b) e’ riportato il rendimento calcolato come il rapporto:

R=(p(t+1)-p(t))/p(t)

dove p(t) e’ il prezzo di un particolare giorno individuato con t.

clip_image002

 

Dall’osservazione del pannello (b)  appare chiaro che e’ possibile dividere l’intero periodo di osservazione in 3 parti di circa 1200 giorni ognuna: una parte con un andamento ad intermittenza, seguita da una piu’ regolare e con l’ultima di nuovo ad intermittenza. Una tale caratteristica appare a qualsiasi scala osserviamo questo indice. Ci sara’ sempre un’alternanza di periodi regolari e periodi intermittenti mostrando un chiaro comportamento auto-similare tipico dei mercati finanziari. Ma veniamo alle tre strategie testate.

1. Strategia casuale (RND). Questa strategia e’ quella piu’ semplice, in quanto corrisponde ad un operatore (trader) che scegli se comprare o vendere un’azione completamente a caso

2. Strategia basata sul momento (MOM). Questa strategia si basa sul concetto di momento M(t) cioe’ la differenza tra il prezzo al tempo t, p(t) e quello al tempo t-tm  p(t-tm) dove tm  e’ un dato intervallo di trading espresso in giorni. Quindi se M(t)=p(t)-p(t-tm)>0, significa che e’ previsto un aumento del prezzo nei prossimi giorni e se e’ minore di zero invece e’ previsto una diminuzione. Tipicamente tm e’ posto uguale a 7 giorni.

3. Strategia basata sull’indicatore RSI (Relative Strength Index). Questo indicatore e’ una misura della forza della particolare azione ed e’ definito come 100-100/(1+RS(t)) dove RS(t,t*) e’ il rapporto tra la somma dei ritorni positivi e la somma dei ritorni negativi che si sono presentati nei giorni t* precedenti a t. Una volta calcolato l’indice RSI il trader che segue questa strategia fa la sua predizione sulla possibile inversione di trend indicata dalla cosiddetta divergenza tra il trend del prezzo di un azione e  quello dell’indice RSI come mostrato nella figura di seguito.

clip_image004

Il risultato ottenuto effettuando delle simulazioni sugli andamenti storici dei prezzi delle azioni considerate e’ stato quello riportato nell’immagine seguente. Le performance delle diverse strategia sono state valutate dividendo le serie temporali in finestre di diversa ampiezza e contando quante volte la strategia e’ stata vincente in tale intervallo temporale. Questa procedura permette di esplorare il comportamento delle diverse strategie a diverse scale temporali. E’ evidente la differenza tra la strategia random RND e le due strategie standard MOM e RSI. A qualsiasi scala temporale la strategia random RND mostra fluttuazioni piu’ contenute.

clip_image006

In quest’altra immagine si apprezza meglio il risultato sorprendente osservando nel pannello (a) la percentuale di vittorie delle 3 strategie mediate in ognuna delle finestre temporali e nel pannello (b) le corrispondenti standard deviations (una misura di variabilita’).

clip_image008

Dal primo istogramma appare che il guadagno medio delle 3 strategie oscilla tra il 48% e il 50% con la strategia RND leggermente in vantaggio. Allo stesso tempo il secondo istogramma conferma la migliore stabilita’ della strategia RND rispetto alle altre due. Questi risultati sembrano suggerire come anche osservato da Taleb nel suo best selle il cigno nero, il successo di una strategia di trading a piccole scale temporali dipende piu’ dalla fortuna che dalla efficacia degli algoritmi utilizzati, visto che su scala temporale piu’ lunga, le 3 strategie hanno prestazioni praticamente uguali con addirittura la randomica leggermente in vantaggio. Questi risultati sembrano suggerire che l’introduzione di una certa casualita’ nelle strategie di trading deterministiche possa giocare un ruolo importante. Questo  in effetti viene confermato nella prossime figure.

Qui per le due strategie MOM e RSI viene aggiunta una componente percentuale di casualita’ che va dal 20%, al 50% e infine al 70% passando dalla riga (a) alla (b) e quindi alla (c) rispettivamente.

clip_image010

clip_image012

clip_image014

Appare chiaro che l’introduzione una piccola quantita’ di rumore nelle 2 strategie tradizionali MOM e RSI migliora le loro prestazioni in termini di numero medio di vittorie e fluttuazioni per ognuna delle configurazioni temporali.

Questi risultati sono stati sintetizzati qui di seguito. Si vede chiaramente come gia’ con un rumore del 50% le due strategia deterministiche MOM e RSI diventano confrontabili alla strategia completamente casuale RND.

clip_image016

Come e’ possibile che una strategia casuale possa essere confrontabile a quelle super sofisticate sviluppate dagli esperti del settore? Semplicemente ipotizzando la cosiddetta efficienza del mercato alla cui base c’e’ l’ipotesi che le notizie finanziarie riguardanti le varie aziende sono accessibili alla maggior parte degli investitori. Il prezzo attuale di un’azienda rappresenta una buona stima del suo valore intrinseco e la quotazione del mercato rispecchia tutte le notizie disponibili. I primi sviluppi teorici di questa teoria risalgono a Samuelson (1965) e Mandelbrot (1966). Nella definizione di Fama (1970) un mercato finanziario è efficiente se in ogni istante il prezzo delle attività scambiate riflette pienamente le informazioni rilevanti disponibili per cui non sono possibili ulteriori operazioni di arbitraggio: la concorrenza garantisce che i rendimenti delle attività siano ai loro livelli di equilibrio (eguaglianza tra domanda e offerta). In un mercato finanziario siffatto né l’analisi  tecnica (previsione dei prezzi futuri basata sullo studio dei prezzi passati) né l’analisi fondamentale (studiando l’andamento del valore delle imprese attraverso l’analisi della redditività si tenta di capire se esistono nuove prospettive sul valore delle azioni) possono consentire ad un investitore di conseguire profitti maggiori di quelli che un altro investitore otterrebbe detenendo un portafoglio di titoli scelti a caso, con il medesimo grado di rischio. Per questo motivo l’idea di mercato finanziario efficiente e’ associata all’idea di random walk. I risultati eccezionali di alcuni operatori finanziari sono puramente casuali, motivati non tanto dalle loro capacita’ e dal loro talento ma dalla legge di probabilita’ secondo cui in una popolazione di un milione di traders ve ne sara’ almeno uno che riesce ad indovinare un cospicuo numero di operazioni di seguito. L’andamento passato del prezzo di un’azione non costituisce un indicatore affidabile per la previsione della direzione delle oscillazioni future.

Ma quale e’ il vantaggio di utilizzare una strategia completamente casuale?  La risposta e’ duplice.

1. La natura turbolenta dei mercati finanziari rende molto difficile ogni previsione a lungo termine utilizzando gli strumenti oggi in possesso degli analisti finanziari, i cui modelli matematici spesso sono basati su assunzioni irrealistiche. Tali assunzioni in genere portano i traders a sottostimare sia il rischio che il ruolo della casualita’ delle loro strategie almeno fino al prossimo crollo del mercato quando si accorgono di aver perso ingenti somme di denaro.

2. Le strategie casuali sono poco costose da implementare. Chiunque puo’ investire nel mercato azionario senza la consulenza di specialisti e senza nessuna regola iper-complicata da utilizzare.

In definitiva i risultati di questo gruppo di ricercatori italiani mostra che:

1. Le strategie di trading standard con i loro algoritmi basati sulla storia passata di un indice non danno risultati migliori di una strategia completamente casuale, che non solo e’ piu’ semplice ma anche meno rischiosa

2. L’introduzione di una certa quantita’ di rumore (casualita’) nelle strategie deterministiche standard migliora significativamente le loro prestazioni.

Ma le variazioni dei prezzi sono realmente casuali come questo studio e altri mostrano o sono solo apparentemente tali? Fenomeni che un tempo venivano considerati turbolenza (noise) ora vengono affrontati esplicitamente e sono spiegati in modo convincente, o meglio si individua la linea concettuale che può permettere la maturazione di una ipotesi ragionevole di spiegazione. L’ipotesi interessante che è emersa nella letteratura più attuale è che quello che per molto tempo è stato indicato come turbolenza, in effetti può essere descritto come il risultato della interazione tra categorie di investitori, che reagiscono alle variazioni dei prezzi assumendo nuovi comportamenti di speculazione. La relazione tra nuove manovre di speculazione e variazioni dei prezzi che le originano è molto complessa e probabilmente è ben descritta da funzioni non lineari. Il fatto che queste variabili si mettano in relazione non lineare tra di loro spiega la possibilità che il segnale in uscita dal sistema (il prezzo) sia praticamente confondibile con un movimento casuale. Questa è esattamente la caratteristica dei sistemi dinamici caotici, che sono apparentemente casuali ma realmente deterministici. La somiglianza sta nel fatto che processi deterministici non lineari molto complessi (appunto caotici) possono benissimo mostrare momenti di primo e secondo ordine molto simili a quelli di un processo stocastico. La serie dei prezzi è generata da un sistema dinamico con relativamente pochi parametri di controllo e produce un segnale che apparentemente è casuale, mentre in realtà è appunto caotico. E’ evidente come questa possibilità sia affascinante e potenzialmente molto rilevante per lo studio e la previsione dei mercati speculativi. La ricerca di segnali di caoticità delle serie storiche provenienti dai mercati speculativi è un esercizio difficile, ma carico di importantissime implicazioni per la ricerca e per l'operatività dei trader e degli investitori. Cio’ significa quindi che e’ possibile prevedere l’andamento futuro dei prezzi? In parte, cioe’ solo su un breve orizzonte temporale, in quanto un sistema complesso evolve nel tempo amplificando piccolissime differenze di partenza, talmente piccole da essere inferiori al grado di precisione con cui si riesce a valutare lo stato di partenza del sistema. In un sistema deterministico - caotico, una piccolissima differenza iniziale - praticamente confondibile con un errore di misurazione - si traduce in una dinamica rapidamente divergente; è quindi inutile, a partire da una certa prospettiva di previsione, disporre di una descrizione esatta delle equazioni che governano il sistema in quanto comunque non è possibile inferire lo stato finale della dinamica del prezzo (il cosiddetto effetto farfalla).  Ma quanto è realistico ipotizzare reazioni non lineari degli operatori finanziari alle nuove notizie ed alle nuove condizioni del mercato stesso? In base ai risultati della cosiddetta “behavioral finance” molto. Il comportamento avverso al rischio permane quando l'investitore sta guadagnando, quando esso è in zona di perdita si trasforma frequentemente in un soggetto propenso al rischio, per l'ansia di recuperare; ne deriva che gli atteggiamenti degli investitori, individuali e professionali, sono diversi se sono in zona di utile o in zona di perdita e, quindi, la storia dell'investimento - anche il suo andamento grafico - è un elemento che ha la sua importanza; più specificatamente, gli investimenti in zona di perdita tendono ad non essere smobilizzati poiché si vuole tenere in azione la possibilità di eliminarli; c'è dunque un effetto psicologico di blocco dei portafogli negli investimenti perdenti dovuto alla riluttanza a dichiarare - prima di tutto a se stessi - l'errore; gli investitori più accorti rispondono a tale pericolo definendo fin da subito con le regole di stop-loss; anche gli investimenti in zona di utile sono detenuti per un periodo eccessivo; gli ipotetici guadagni ulteriori, che non verrebbero acquisiti in caso di vendita immediata, sono sentiti come delle perdite e costringono l'investitore a non riconoscere di avere realizzato il guadagno posto come obiettivo; gli investitori più accorti rispondono a tale pericolo fin da subito con le regole di take profit; le informazioni recenti tendono ad essere sovra-pesate nel meccanismo decisionale dell'investitore; ne deriva che il mercato tende a sovra-reagire rispetto ai valori intrinseci; gli investitori tendono ad avere poca indipendenza rispetto a quanto sarebbe necessario per seguire i propri giudizi e le proprie originali valutazioni; i gestori sono giudicati rispetto a benchmark di mercato, gli investitori individuali se li creano; in entrambi i casi è molto costoso in termini psicologici essere lontani dal benchmark e quindi tale evenienza viene allontanata tenendo uno stretto contatto con quanto stanno realizzando i colleghi.

domenica 5 marzo 2017

L’auto-organizzazione dei mercati finanziari

 
Il crollo del mercato azionario e’ un calo improvviso e drammatico dei prezzi delle azioni con conseguente perdita significativa di ricchezza. I crolli in genere sono guidati dal panico degli investitori e da fattori economici sottostanti. Spesso essi seguono le cosiddette bolle speculative del mercato azionario. I crolli sono dei veri e propri fenomeni sociali dove gli eventi economici si combinano con il comportamento e la psicologia della folla formando un loop con retroazione positiva dove la vendita iniziale da parte di un piccolo gruppo convince sempre piu’ persone a fare la stessa cosa. Sono stati individuati dei path preferenziali che portano ad una crisi del mercato:
1) Un periodo prolungato di aumento dei prezzi delle azioni e un eccessivo ottimismo economico
2) Un mercato dove i rapporti P/E superano significativamente il valore medio di lungo termine
3) L’uso estensivo del cosiddetto Margin debt da parte degli investitori (il margin debt e’ il denaro che gli investitori prendono in prestito per esempio dalle banche per acquistare delle azioni)
La caratterizzazione matematica dei movimenti dei mercati azionari e quindi la possibilita’ di prevedere i crolli del mercato sono stati da sempre un campo di interesse di economisti, matematici e ultimamente anche di fisici. L’assunzione convenzionale e’ quella di un mercato che si muove seguendo una distribuzione log-normale. In altre parole si assume che il logaritmo dei rendimenti (rapporto tra prezzo di oggi St e quello di ieri St-1) sia distribuito come una gaussiana (distribuzione a campana).

image

Questa assunzione comunque non e’ sempre vera come si puo’ osservare prendendo come esempio i prezzi dell’ultimo anno del titolo Google. Il test di normalita’ di Shapiro-Wilk non passa essendo il valore molto prossimo a zero (una distribuzione normale deve avere questo parametro tendente a 1).


image


La stessa cosa e’ vera per i rendimenti del titolo Apple nell’ultimo anno.


image

Per questo motivo il matematico Benoit Mandelbrot nel 1963 suggeri’ che questa statistica fosse incorretta osservando che i movimenti significativi dei prezzi (i crolli) sono molto piu’ comuni di quanto previsto da una distribuzione lognormale. Dopo le osservazioni di Mandelbrot altri studiosi hanno suggerito che i movimenti del mercato vengono spiegati meglio da concetti utilizzati in teoria del caos e dell’analisi non-lineare. Tutto questo e’ stato riassunto con linguaggio non matematico da George Soros nel suo libro “L’alchimia della finanza” dove parla di quella che lui chiama la riflessivita’ dei mercati e i loro movimenti non lineari. La tesi principale e’ che i mercati sono tutt’altro che efficienti e che l’uomo oeconomicus e’ tutt’altro che razionale. Al contrario i prezzi di mercato riflettono piu’ che altro l’ignoranza i pregiudizi e spesso l’irrazionalita’ di milioni di investitori. Essi non riflettono accuratamente le condizioni sottostanti fornendo un quadro che in un modo o nell'altro è sempre di parte o distorto. Le visioni distorte dei protagonisti del mercato ed espresse nei prezzi possono, in certe circostanze, intaccare i fondamentali del mercato. Questo circuito di andata e ritorno tra i prezzi di mercato e la realtà sottostante e’ la reflexivity, "riflessività" di Soros. I mercati finanziari riflettono sempre questo circuito a due vie e possono a tratti allontanarsi molto dal cosiddetto equilibrio. In altre parole, è tipico dei mercati finanziari essere predisposti alla creazione di bolle speculative. In economia non vince l'ordine, ma il suo contrario, perché le scelte operate ad alto livello sui mercati internazionali sono pur sempre il frutto di interessi (e di errori) di singoli individui. L'economia viene influenzata (quindi subisce un riflesso) dalle condizioni sociali vigenti, che raramente sono di stabilità; molto più spesso sono di panico, paura, euforia. Condizioni che, se portate alle estreme conseguenze, possono sfociare in situazioni d'emergenza quali una bolla immobiliare e il crollo delle borse. In economia una bolla speculativa e’ una particolare fase di mercato caratterizzata da un aumento considerevole e ingiustificato dei prezzi di uno o più beni, dovuto ad una crescita della domanda repentina e limitata nel tempo. Alla fase di nascita e di crescita della bolla segue poi la fase di scoppio che tende a ripristinare i valori originari del bene in questione. L'eccesso di domanda che spinge verso l'alto in poco tempo il valore di un bene, di un servizio, di una impresa o più semplicemente di un titolo, si può ricondurre all'irrazionale (o razionale) euforia di soggetti economici convinti che una nuova industria, un nuovo prodotto, una nuova tecnologia potranno offrire cospicui guadagni e registrare una crescita senza precedenti. Scatta, pertanto, la corsa all'acquisto del diritto, nella speranza di rivendere lo stesso ad un prezzo superiore. La corsa all'acquisto provoca un aumento del prezzo che conferma, agli occhi di molti, la bontà della precedente previsione di un futuro aumento del prezzo del diritto. Questo stimola ulteriormente gli acquisti e quindi fa aumentare ancora una volta il prezzo. La profezia in altri termini si avvera, inducendo nuovi soggetti economici ad acquistare i medesimi titoli. Tra questi, man mano che i valori crescono, si annoverano sempre più soggetti solitamente restii ad acquistare strumenti finanziari dal rischio elevato. Quando il valore dei titoli scende repentinamente e si assiste a un cambiamento radicale delle prospettive economiche retrostanti, si parla di scoppio della bolla speculativa. L'eccesso di acquisto di un diritto, infatti, ad un certo punto si arresta. Le cause possono essere almeno tre:
  • è difficile trovare nuovi investitori disposti ad acquistare ulteriori diritti ad un prezzo che nel frattempo è diventato elevato;
  • chi ha comperato diritti in precedenza è spinto a vendere i titoli per monetizzare il guadagno;
  • le ottimistiche prospettive di guadagno precedentemente formulate possono essere riviste e ridimensionate.
Alla fase di crescita dei valori segue dunque una fase opposta, durante la quale si assiste ad un calo considerevole delle quotazioni. All'eccesso di vendite contribuiscono la consapevolezza che, di fronte a prospettive economiche meno ottimistiche, i valori dei titoli trattati sono destinati a calare e la volontà di molti possessori di titoli di cederli prima che si verifichino ulteriori diminuzioni del valore.
Torniamo alla non linearita’ dei mercati riportando una ricerca del MIT che ha evidenziato come la frequenza dei crolli di mercato segue una legge di potenza cosi’ come fanno i terremoti (vedi altri post sul mio blog su questo tema) e altri sistemi naturali. Ma la cosa strana e’ che il mercato non ha nulla di naturale essendo un mondo artificiale. Il mercato e’ pieno di casualita’, ma alla fine della giornata emerge un chiaro pattern che combacia con i pattern evidenziati in sistemi diversi come terremoti, distribuzione delle dimensioni delle citta’ e le parole in un vocabolario. Gli studiosi del MIT hanno anche trovato che le ampie fluttuazioni dei prezzi sono indotte dai partecipanti al mercato quando essi si trovano ad operare sotto pressione. Come in Giappone, per esempio, hanno costruito palazzi che resistono a sismi di forte entita’ ed evitare tante vittime, allo stesso modo bisogna fare in economia anche se e’ molto difficile. Oltre ai crolli del mercato, anche i volumi, le azioni vendute/comprate in un giorno e i prezzi delle azioni seguono una legge di potenza. Questo vuol dire per esempio, che il numero di giorni in cui il prezzo di una data azione si muove del 1% e’ 8 volte il numero di giorni in cui l’azione si muove del 2%, che a sua volta sara’ 8 volte il numero di giorni che il prezzo dell’azione si muove del 4% , che sara’ 8 volte il numero di giorni in cui il prezzo dell’azione si e’ mosso del 8% e cosi via. Per comprendere questi pattern il team del MIT ha analizzato i grossi azionisti, come i fondi comuni di investimento con piu’ di 100 milioni di dollari in attivo. Anche loro seguono una legge di potenza; il numero di azionisti che gestiscono 1 miliardo di dollari e’ il doppio di quelli che gestiscono 2 miliardi che a sua volta e’ il doppio di quelli che gestiscono 4 miliardi e cosi via (per chi di voi mi segue da tempo si sara’ accorti che questa altro non e’ che la cosiddetta legge di Zipf). Quando gli enti, come quelli che gestiscono i fondi comuni, che possono muovere grosse quantita’ di soldi si trovano a lavorare sotto pressione si possono avere grosse fluttuazioni di prezzi e la possibilita’ quindi di una bolla che a tendere puo’ diventare un vero e proprio crollo. Questi e altri studi dimostrano in modo inequivocabile che i crolli del mercato sono un chiaro segno di criticita’ auto-organizzata del mercato stesso. Le forti fluttuazioni delle quotazioni in borsa, come gli improvvisi crolli sono determinati dal loro naturale funzionamento, anche in assenza di fragilità strutturale o di interferenze malavitose criminali. Lo stato di non equilibrio è uno stato critico e quindi presenta cambiamenti improvvisi ed inspiegabili, che fortunatamente sono rari, come rari sono i terremoti catastrofici. Le gigantesche e rovinose crisi finanziarie, anche se rare (e più rare sono, più sono nefaste) sono eventi ordinari del tutto naturali e seguono le stesse leggi fisiche dei terremoti. Un’altra ricerca fatta all’Istituto dei Sistemi Complessi in New England ha trovato dei segnali premonitori dei crolli del mercato usando dei nuovi strumenti statistici sviluppati nell’ambito della teoria della complessita’. Questo lavoro suggerisce che il panico che porta ai crolli del mercato deriva da un’aumentata mimicita’ cioe’ della serie che ognuno copia l’altro. Un significativo aumento della mimica nel mercato si e’ presentato per esempio nell’anno precedente ad ognuno dei crolli degli ultimi 25 anni. Quando gli investitori copiano molto da vicino gli spunti degli altri e’ facile entrare in una situazione di panico che coinvolge il mercato. Quando i grandi investitori iniziano a vendere delle azioni, essi guidano il prezzo in basso in quanto la vendita genera paura nei piccoli investitori che iniziano a vendere anche loro. Se questo loop va fuori controllo il mercato entra in uno stato di panico. Quest’ultimo in economia come in altri aspetti della vita, puo’ essere generato da reali minacce esterne al sistema ma anche da nervosismo auto-generato internamente al sistema. Indipendentemente dal fatto che la minaccia e’ reale o immaginaria, un sistema vivente entra in uno stato di panico quando e’ sopraffatto da agitazione, ansia e paura. Maggiore e’ il numero di organismi presenti nel sistema e piu’ catastrofici sono gli effetti generati dal panico. Cercare di prevedere il comportamento di sistemi sociali ed economici in generale e’ molto complicato. Essi sono composti da agenti umani, tutti con i loro interessi personali, strategie e obiettivi. Ci sono comunque dei casi in cui le interazioni tra individui danno origine ad un comportamento collettivo. In questi casi, la previsione e’ possibile in quanto se gli individui si muovono insieme lo spazio dei possibili risultati del sistema si rimpicciolisce. In questo modo se il panico e’ realmente la causa delle crisi finanziarie, se si riesce a quantificarlo si potrebbe pensare di prevedere quando queste crisi si presenteranno. Proviamo allora a rispondere a queste due questioni:

· E’ possibile quantificare il panico?
· E’ possibile usare il panico per prevedere le crisi del mercato?

Nell’economia tradizionale i prezzi riflettono le aspettative degli individui in base alle notizie: solo le informazioni esterne al sistema possono guidare le decisioni. In realta’, i mercati sono delle vere e proprie reti di influenza (Fig. 1): le persone parlano tra loro e guardano quello che fanno gli altri prima di decidere cosa fare. Questo significa che per avere il quadro completo del sistema, bisogna considerare anche l’imitazione interna al sistema stesso.


                         Economia tradizionale                                            Sistemi complessi

image

Fig. 1 Confronto tra la prospettiva del mercato tradizionale, dove solo le notizie dall’esterno influenzano le decisioni dei singoli agenti (nodi), e quella complessa dove viene considerata l’interazione interna tra gli agenti.


Il gruppo di studiosi del New England ha costruito un modello includendo entrambi i fattori e verificato il comportamento di tale modello sui dati economici per quantificare i due effetti. Per semplificare, il sistema puo’ essere pensato come una rete completamente connessa con N nodi, dove ogni nodo puo’ assumere i valori binari +1 o -1. Ad ogni step temporale, un nodo guarda i primi vicini, ne prende uno a caso, e con una certa probabilita’, copia quello che sta facendo. Alcuni nodi sono fissi e non possono cambiare il loro valore. I nodi che fluttuano nel tempo rappresentano gli investitori mentre quelli fissi le notizie economiche provenienti dai mass media.
Alcune volte il valore delle azioni dipende dalle notizie e altre volte dalla copia dei primi vicini. Il valore binario che le azioni possono assumere rappresenta il segno del rendimento. Il numero di nodi fissi (notizie) che influenzano il valore delle azioni positivamente puo’ essere indicato con la lettera U mentre il numero che influenza il valore delle azioni negativamente puo’ essere indicato con D. Questo modello e’ simile a quello di Ising nel senso che riesce a descrivere la transizione da stati ordinati a disordinati e viceversa. I parametri importanti che determinano il comportamento di questo modello sono due:

· Il rapporto tra i collegamenti (links) esterni ed interni (cioe’ l’influenza delle notizie (U+D)/N)
· La frazione dei nodi positivi (cioe’ il rapporto (U-D)/N).

Qui di seguito i risultati dell’applicazione del modello a dei dati reali. E’ stato considerato l’indice Russel 3000 che comprende le 3000 azioni americane piu’ negoziate in borsa. La figura 2 indica il co-movimento delle azioni nel tempo nel senso che rappresenta il numero di giorni dell’anno in cui una frazione del mercato si muove in alto (o in basso). Intuitivamente se in media piu’ del 50% del mercato si muove nella stessa direzione (in alto o in basso) questo rappresenta un co-movimento. Nel 2000 per esempio la curva mostra un picco a 1/2 il che significa che il prezzo del 50% di azioni si sta muovendo in alto e il 50% in basso. Le linee continue rappresentano le distribuzioni sperimentali mentre le linee tratteggiate rappresentano il risultato del modello. Come si vede il fit e’ molto buono.
 

image

Fig. 2 Sull‘asse verticale e’ riportato la frazione di giorni dell’anno in cui una certa frazione di azioni (asse orizzontale) si e’ mossa in alto (rendimento positivo).


Nei 6 anni riportati in figura 2, si vede che avvicinandosi al 2008 la curva si appiattisce indicando che la probabilita’ di qualsiasi frazione e’ sempre la stessa. Quindi la probabilita’ che una larga parte del mercato si muova nella stessa direzione (in alto o in basso), in qualsiasi giorno dell’anno aumenta drammaticamente. Un livello cosi alto di co-movimento puo’ dare origine ad un comportamento collettivo e quindi ad una crisi finanziaria. Notare come dal 2000 al 2008 il valore del parametro U diminuisce indicando chiaramente una minore influenza delle notizie dei mass media sul sistema (i nodi fissi) e quindi una maggiore tendenza all’imitazione interna. Analiticamente la probabilita’ di co-movimento e’ data da:

image

dove N e’ il numero di azioni, k il numero di azioni con rendimento positivo e le parentesi indicano i coefficienti binomiali. Il comportamento del modello e’ controllato dall’intensità’ degli stimoli esterni U e D rispetto a quelli delle interazioni interne alla rete. Quando le interazioni interne sono deboli in confronto alle forze esterne (D, U>>1), la distribuzione e’ normale. Quando le interazioni interne sono forti (U e D piccoli) allora la distribuzione inizia a diventare uniforme, diventando esattamente uniforme in corrispondenza del valore critico D=U=1, dove l’influenza esterna ha l’intensita’ di un singolo nodo. Nella parte alta della figura 3 e’ riportato l’andamento temporale del parametro U. Mentre negli anni 90 c’era una situazione salutare per la borsa la stessa cosa non si puo’ dire oggi poiche’ ognuno cerca di copiare l’altro. La seconda immagine della figura 3 indica gli 8 giorni con crollo del prezzo significativo nel periodo 1985-2010 indicati con delle linee rosse. Questi sono stati raggruppati in 4 finestre temporali indicate in celeste. Come utilizzare il parametro U per individuare questi giorni?
 

image

Fig. 3 Il pannello in alto mostra l’andamento del parametro U nel tempo. Quello in basso invece mostra la variazione annuale del parametro U come frazione della sua standard deviation calcolata sugli anni precedenti.


Piu’ che il valore di U e’ importante considerare il cambiamento di U da un anno a quello precedente diviso la standard deviation delle sue fluttuazioni. Ogni crollo e’ preceduto da un semplice pattern. Facciamo partire il nostro orologio quando il cambiamento di U scende al di sotto di 2 standard deviations: all’interno del prossimo anno ci sara’ un crollo significativo del mercato. Si azzera l’orologio una volta che la variazione di U diventa positiva di nuovo. Se si segue questo pattern si puo’ vedere come tutti gli otto crolli vengono previsti correttamente. Non ci sono ne’ falsi positivi ne’ falsi negativi. Questo ricorda molto da vicino il comportamento collettivo dei sistemi complessi. Una volta che il sistema subisce una perturbazione (rilassamento) c’e’ un rilascio improvviso di energia e poi molto lentamente il sistema si porta di nuovo verso uno stato di criticita’ pronto a dare origine ad una nuova catastrofe (o valanga nell’esperimento del mucchietto di sabbia di Per Back...). Costruire modelli e’ divertente, e anche se tutti i modelli sono sbagliati, qualcuno di questi e’ certamente utile.
Un altro modello che merita la nostra attenzione e’ quello proposto da due fisici polacchi e che utilizza il cosiddetto esponente di Hurst per fare una previsione statistica dei crolli del mercato. Vediamo di cosa si tratta. Anche in questo studio viene evidenziata la complessita’ del sistema finanziario e della sua non predicibilità. Comunque dalla meccanica statistica sappiamo che non c’e’ bisogno di sapere dove si muovera’ esattamente una particella del sistema per trovare l’equazione di stato di questo sistema. Ricordiamo che l’equazione di stato fornisce una relazione matematica tra due o più variabili di stato associate alla materia, come temperatura, pressione, volume o energia interna. Le equazioni di stato sono utili nella descrizione delle proprietà dei fluidi (e delle loro miscele), dei solidi e persino per descrivere l'interno delle stelle. L’equazione di stato e’ sufficiente nelle applicazioni pratiche per darci un’informazione globale del sistema grazie alle variabili macroscopiche che sono legate a quelle microscopiche a noi inaccessibili. In molti casi questa conoscenza e’ sufficiente ad indicarci la direzione in cui il sistema evolvera’. Allo stesso modo i due fisici si chiedono se e’ possibile trovare dei parametri macroscopici relativi al mercato che possano essere degli indicatori delle dinamiche interne del sistema finanziario. Come gia’ detto la distribuzione dei rendimenti non segue esattamente una legge Gaussiana quanto invece una legge di potenza e quindi e’ normale attendersi delle correlazioni di lungo periodo cioe’ una sorta di lunga memoria del mercato. Quindi e’ giusto andare a cercare tali correlazioni nei dati storici dei mercati azionari. Cio’ e’ stato fatto da questo team polacco utilizzando la cosiddetta tecnica DFA (Detrended Fluctuations Analysis). Questa applicata alle serie temporali degli strumenti finanziari permette di estrarre l’esponente di Hurst che misura il livello di persistenza di un dato segnale. Se il sistema coincidesse con un cammino casuale il valore dell’esponente H sarebbe di 0.5 indicando una serie di eventi indipendenti: ogni variazione non è influenzata dalle precedenti e nemmeno influenzerà quelle future. Se invece l’esponente e’  maggiore di 0.5 questo sta a significare che la distanza coperta dal sistema è assai maggiore di quella predetta dal random walk model: il sistema risulta caratterizzato da un effetto memoria per il quale ogni osservazione è influenzata da quelle passate ed influenzerà quelle future. Se questo esponente e’ diverso da 0.5 questo implica l’esistenza di correlazioni a lungo range. In particolare se l’esponente di Hurst e’ maggiore di 0.5 allora il segnale e’ persistente mentre se e’ minore di 0.5 allora il segnale e’ anti-persistente. Per serie persistente, intendiamo una serie caratterizzata da una dipendenza positiva tra le variazioni generate dal processo: se nell’ultima osservazione abbiamo registrato un incremento (decremento) è più probabile che l’osservazione successiva registri un ulteriore incremento (decremento). La probabilità di registrare due variazioni di segno concorde risulta tanto più alta quanto piu’ H si avvicina ad uno. Per anti-persistente invece intendiamo una serie che se in un dato periodo ha subito un incremento (decremento) è più probabile registrare un successivo decremento (incremento) che un ulteriore incremento (decremento). La serie risulta più volatile di una serie casuale (poiché caratterizzata da più frequenti inversioni) tanto più il valore di H si avvicina a zero. Prima di un cambio drammatico del prezzo di uno strumento finanziario ci si aspetta che esso venga preceduto da uno stato di eccitazione del mercato (nervosismo) che a sua volta e’ riflesso dalla forma dei cambiamenti di prezzo dei giorni seguenti. Questi cambiamenti dovrebbero diventare meno correlati prima di un crollo nel trend del segnale. Al contrario quando il trend nel mercato e’ forte e ben determinato, un aumento (diminuzione) del prezzo visto nel passato recente rende piu’ probabile un segnale in crescita (decrescita) anche nel futuro immediato, In altre parole l’esponente di Hurst dovrebbe mostrare una diminuzione significativa e repentina se il trend sta cambiando velocemente la sua direzione come in caso di crollo del mercato. Tra le varie tecniche disponibili per calcolare l’esponente di Hurst i due studiosi hanno scelto quella del DFA essendo piu’ robusta e applicata all’indice Dow Jones Industrial Average (DJIA). Nella fig 4 possiamo vedere il trend dell’indice DJIA e il valore dell’esponente di Hurst indicato con alfa per diversi valori di N che indicano la lunghezza delle finestre temporali in cui viene diviso il segnale come richiesto dalla tecnica DFA. Notiamo che per N=350 e 420 l’esponente di Hurst e’ molto simile cosa non vera invece per N=210. All’aumentare di N si nota come l’andamento dell’esponente diventa piu’ liscio (smooth). Comunque la scelta di N e’ del tutto empirica e non c’e’ alcuna legge per determinarlo. Per l’analisi del segnale DJIA riportato nella figura 5 il valore di N scelto e’ stato di 240. Il primo crollo analizzato e’ stato quello del 1929 il cui dettaglio e’ mostrato in fig 6. Si vede chiaramente come l’abbassamento repentino del valore del DJIA corrisponde ad un abbassamento dell’esponente di Hurst con quest’ultimo che raggiunge il minimo assoluto del periodo a circa 0.45, 2 settimane prima del crollo. Per verificare se questa coincidenza fosse semplicemente dovuta al caso i due fisici polacchi hanno ripetuto la stessa analisi per il crollo del 1987 e 1998 confermando un abbassamento dell’esponente di Hurst (nervosismo dei mercati) alcune settimane prima del crollo del mercato. In definitiva essi hanno provato che l’esponente di Hurst si abbassa drasticamente prima di ogni crollo dell’indice DJIA. Questo conferma che l’esponente di Hurst puo’ essere usato come misura dello stato attuale di eccitazione del mercato anche se va ricordato che fattori esterni agli investitori possono accelerare o decelarare il valore dell’esponente di Hurst e mettere in crisi la previsione.
Prima di chiudere il post va precisato che i modelli descritti fin qui e tanti altri simili che si possono trovare in rete non hanno la pretesa di predire quando ci sara’ il prossimo crollo finanziario o il prossimo terremoto. Essi nascono con il solo intento di fare una previsione statistica. Nessuno sapra’ la data e l’ora esatta del prossimo crollo finanziario o terremoto. L’unica cosa possibile e’ calcolare la probabilita’ che in un certo periodo possa presentarsi una crisi finanziaria o un terremoto. E niente di piu’.
 

image

Fig 4, Andamento nel tempo dell’esponente di Hurst indicato con alfa per l’indice DJIA nel periodo Feb 1913-Giu 1914 per tre differenti finestre temporali N. I valori di alfa sono stati moltiplicati per 2 e spostati lungo l’asse verticale per apprezzare le differenze.

 

image

Fig 5. Andamento dell’indice DJIA tra il 1896 e 2003. Gli eventi economici piu’ importanti sono riportati sulla curva.

 

image

Fig 6. Il crollo del 1929. In alto l’andamento del DJIA e in basso il corrispondente esponente di Hurst, In corrispondenza del crollo dei prezzi si nota un repentino abbassamento dell’esponente.


domenica 22 gennaio 2017

Come emerge l’innovazione?

 

L’innovazione e’ una delle forze trainanti del mondo. La creazione costante di nuove idee e la loro trasformazione in tecnologie e prodotti e’ di sicuro una pietra angolare della nostra societa’. Questo spiega perche’ molte Universita’ e Istituti sono interessati a questo tipo di processo che ancora oggi appare misterioso e poco capito. Molti ricercatori hanno dedicato tempo a questo studio con lo scopo di capire come l’innovazione prende forma e i fattori che la guidano. Ad oggi questo approccio ha avuto un successo limitato. Anche se il tasso con cui avvengono le innovazioni e’ stato attentamente misurato e si e’ visto che segue dei pattern ben definiti in circostanze anche diverse tra loro, nessuno e’ ancora riuscito a spiegare come nascono le nuove idee e perche’ solo certi fattori e non altri ne influenzano la velocita’.

Tutto questo, oggi sembra cambiare grazie ad un lavoro di Vittorio Loreto della Sapienza di Roma che insieme ad altri suoi colleghi tra cui il famoso matematico Steven Strogatz noto per aver pubblicato un libro sul fenomeno della sincronizzazione, hanno creato un modello matematico che riproduce accuratamente i pattern seguiti dall’innovazione. Questo lavoro da’ vita ad un nuovo approccio nello studio dell’innovazione e di come essa emerga da quello che gia’ esiste. La nozione che l’innovazione nasca dall’interazione tra l’attuale e il possibile e’ stata formulata per la prima volta dal teorico Stuart Kauffmann nel 2002 con l’idea dell’ ”adiacente possibile” come strategia seguita dall’evoluzione biologica. L’adiacente possibile e’ l’insieme di tutte le cose (idee, parole, musica, molecole, genoma, tecnologie....) che sono molto vicine (ad un passo) a quello che esiste oggi. Esso connette la realizzazione attuale di un particolare fenomeno e lo spazio delle possibilita’ ancora inesplorate.

clip_image002

Illustrazione matematica dell’adiacente possibile in termini di grafo che si espande dalla situazione (a) a quella in (b) ogni volta che un passante visita un nodo per la prima volta (il nodo in bianco in (a).

Questa idea nonostante il suo fascino e’ difficile da modellizzare in quanto lo spazio delle possibilita’ inesplorate include non solo tutte le cose immaginate e aspettate ma anche quelle che sono inaspettate e difficili da immaginare. Inoltre mentre la prima e’ difficile da realizzare la seconda e’ molto prossima all’impossibile. Per non parlare del cambiamento continuo dello spazio delle possibilita’ inesplorate. Anche se la potenza creativa dell’ “adiacente possibile” e’ largamente apprezzata a livello di curiosita’ la sua importanza nella letteratura scientifica e’ sottostimata stando a quello che dice Loreto. Nonostante tutta questa complessita’, l’innovazione comunque sembra seguire dei pattern prevedibili e facilmente misurabili conosciuti oggi come leggi grazie alla loro ubiquita’. Una di questi leggi e’ quella che prende il nome di “legge di Heaps”; essa stabilisce che il numero di cose nuove cresce a un tasso sottolineare o in altre parole secondo una legge di potenza della forma:

V(n) = knβ          dove β e’ compreso tra 0 e 1.

Questa legge attribuita ad Heaps ma in realta’ scoperta da Gustav Herdan stabilisce che in linguistica il numero di parole distinte V (asse y del grafico sotto) presenti in un documento dipende dalla sua lunghezza n (numero totale di parole – asse x del grafico). In altre parole se supponiamo di avere una lista ordinata di parole in un testo, man mano che la scorriamo troveremo delle parole nuove che non saranno mai occorse prima e quindi riportando il numero di parole diverse in funzione del numero di tutte le parole occorse fino ad un dato punto si ottiene per grandi numeri la legge di potenza di Heaps.

clip_image004

Le parole spesso vengono pensate come una sorta di innovazione, e il linguaggio si evolve costantemente man mano che appaiono nuove parole e quelle vecchie vanno in disuso. E questa evoluzione segue la legge di Heaps con un coefficiente β compreso tra 0 e 1. Pensiamo ad un vocabolario degli inizi del 1900 e confrontiamolo con uno dei giorni nostri. Sicuramente in quello del 1900 non troveremo termini come internet, rete sociali, crowdfunding, computer e cosi via. Il numero di parole totali contenute nel vocabolario di oggi e’ decisamente maggiore di quello del 1900 e la differenza tra i due vocabolari e’ guidata dalla legge di Heaps.

Un altro pattern statistico seguito dal processo di innovazione e’ quello della legge di Zipf’s che descrive come la frequenza di una innovazione e’ legata alla sua popolarita’. Questa legge venne descritta per la prima volta dal linguista e filologo statunitense G. K. Zipf ed oggi essa trova applicazione nei campi piu’ svariati essendo diventata la controparte della distribuzione Gaussiana nell’ambito delle scienze sociali. Questa legge mette in relazione la frequenza di un evento con la posizione in classifica del verificarsi di questo evento, in un ordinamento decrescente (rango). Fra i casi piu’ famosi in cui la legge viene verificata abbiamo le frequenze delle parole negli scritti e la distribuzione della popolazione nelle varie citta’ di uno stato. La legge matematica e’ scritta in questo modo:

f(n)=c/n

dove f e’ la frequenza, c una costante e n il rango, cioe’ la posizione in classifica. All’interno di un testo per esempio la parola piu’ frequente si presenta quasi il doppio delle volte rispetto alla parola in seconda posizione , il triplo della parola in terza posizione e cosi via. In inglese la parola piu’ frequente e’  “the” con una frequenza del 7% seguita da “of” con un 3.5%, da “and,” e cosi via. Ovviamente se un testo fosse scritto disponendo le parole in modo del tutto casuale allora la legge di Zipf non sarebbe valida. Ma non e’ cosi essendo le parole nei testi vincolate da regole (sintassi, grammatica, estetica, ecc) e quindi si ribellano alla legge Gaussiana. Zipf spiega la legge trovata che in seguito prendera’ il suo nome ricorrendo al cosiddetto principio del minimo sforzo che descrive la normale tendenza di certi fenomeni a cercare di ottenere il massimo risultato con il minimo impiego di forze. Facciamo un esempio considerando il romanzo dei promessi Sposi. Qui di seguito la classifica della parole piu’ usate dal Manzoni con la colonna E ed F del file excel contente il logaritmo in base 2 del rango e della frequenza relativa. Prendiamo il logaritmo perche’ essendo una legge di potenza in questo modo avremo una retta come si vede nel grafico qui sotto.

clip_image006

clip_image008

Sia la legge di Zipf che quella di Heaps sono leggi empiriche nel senso che le conosciamo solo perche’ le misuriamo. Ma perche’ i pattern prendono proprio questa forma nessuno lo sa. Quello che serve non e’ tanto modellizzare l’innovazione inserendo i numeri osservati in equazioni matematiche quanto avere un modello che produce questi numeri a partire da principi primi (postulati). E qui entra in gioco il lavoro di Loreto e colleghi. Il concetto di base e’ proprio quello dell’adiacente possibile. Come sappiamo l’evoluzione non procede per salti. La natura come anche la tecnologia cerca di innovare partendo dal materiale che ha gia’ a disposizione attraverso una sua opportuna ricombinazione. L’innovazione quindi puo’ essere rappresentata come l’esplorazione di uno spazio fittizio (biologico, fisico, tecnologico ecc.) possibile che si allarga di volta in volta con nuovi elementi. E’ come dire che da cosa nasce cosa.

Il team di ricercatori per la prima volta ha creato un modello di questo tipo che spiega i pattern dell’innovazione. Sono partiti da quella che e’ conosciuta come Urna di Polya: un’urna riempita con palline di diversi colori. Una pallina viene pescata a caso, esaminata e reinserita nell’urna insieme ad una certa quantita’ di nuove palline dello stesso colore. Questo aumenta la probabilita’ che nelle successive estrazioni venga selezionata una pallina proprio di questo colore. Questo modello viene utilizzato dai matematici per esplorare il cosiddetto effetto di rinforzo o del “ricco che diventa sempre piu’ ricco” da cui emerge la legge di potenza. Qui di seguito il risultato di due simulazione dell’urna di Polya partendo con 5 palline rosse, 4 nere, 3 gialle, 2 verdi e una blu. Nel primo caso (grafico a sinistra) anche se inizialmente le palline verdi sono meno di quelle rosse a partire dalla decima estrazione circa il loro numero inizia ad aumentare e da quel momento in poi’ cresce sempre di piu’ diventando quello dominante. Sulla destra una seconda simulazione dove si vede che addirittura le palline blu (le minoritarie inizialmente) iniziano a competere con quelle rosse (all’inizio quelle maggioritarie). In questo caso vediamo al lavoro il meccanismo di rinforzo ma non c’e’ nessun elemento di innovazione, cioe’ nessuna novita’.

clip_image010clip_image012

L’urna di Polya quindi e’ un buon punto di partenza per costruire un modello dell’innovazione anche se essa non produce la crescita sottolineare di Heaps. In altre parole il modello di Polya permette tutte le conseguenze aspettate per l’innovazione (quelle di scoprire un certo colore) ma non considera le conseguenze inaspettate di come l’innovazione influenza l’adiacente possibile. Per questo motivo il gruppo di fisici ha modificato il modello dell’urna di Polya per avere la possibilita’ che una volta scoperto un nuovo colore nell’urna questo possa innescare tutta una serie di conseguenze inaspettate. Questo nuovo modello e’ stato chiamato urna di Polya che innesca innovazione.

Si parte con un’urna riempita con palline colorate. Una pallina viene prelevata a caso dall’urna, esaminata, e rimessa nell’urna. Se il colore e’ gia’ stato visto prima, allora un certo numero di palle dello stesso colore viene inserito nell’urna. Ma se il colore e’ nuovo (cioe’ visto per la prima volta) allora un certo numero di palline di un nuovo colore viene aggiunto all’urna. Nel disegno seguente a sinistra viene riportato quello che accade con il semplice modello dell’urna di Polya e a destra con quello modificato da Loreto e colleghi. Le palline colorate rappresentano canzoni che abbiamo ascoltato, pagine web visitate, invenzioni, idee o qualsiasi altra esperienza umana o prodotti della nostra creativita’. Una serie di invenzioni viene idealizzata con una sequenza S di elementi generati tramite estrazioni successive dall’urna U. Esattamente come l’adiacente possibile quando capita qualche cosa di nuovo (una pallina di colore mai visto prima), i contenuti dell’urna stessa cambiano (si allargano). Matematicamente viene considerata una sequenza ordinata S costruita prelevando le palline dall’urna contenente inizialmente un certo numero di palline distinte. Sia il numero di palline nell’urna che nella sequenza aumentano nel tempo. A sinistra vediamo come dopo l’estrazione di una pallina di colore grigio, questa viene rimessa nell’urna insieme a 4 palline dello stesso colore grigio. A destra invece il nuovo modello fa vedere come dopo l’estrazione di una pallina di colore rosso dall’urna, questa viene rimessa dentro insieme ad una copia di 4 palline dello stesso colore rosso e 4 palline di colore non contenuto nell’urna.

clip_image014

Eseguendo le simulazioni al computer, Loreto e i suoi colleghi hanno calcolato come cambia nel tempo il numero di nuovi colori presi dall’urna e la loro frequenza. La sorpresa e’ stata che questo modello riproduce entrambe la legge di Heaps e quella di Zipf e quindi per la prima volta sono state riprodotte le osservazioni empiriche partendo da un postulato. Il team ha mostrato anche che il modello predice come le innovazioni compaiono nel mondo reale. Il modello infatti, predice accuratamente come si presentano gli eventi di modifica delle pagine di Wikipedia, la sequenza delle parole nei testi e di come gli umani scoprono nuove canzoni in un catalogo online di musica. Qui di seguito la legge di Heap e di Zipf predette dai risultati analitici e confermati dai risultati numerici delle simulazioni.

clip_image016

Questi sistemi coinvolgono 2 diverse forme di scoperta. Da una parte, ci sono cose che gia’ esistono ma sono nuove per l’individuo che le trova come per esempio le canzoni online e dall’altra le cose che non esistevano prima e che sono nuove per il mondo intero come per esempio le modifiche delle pagine di Wikipedia. Il team parla di novita’ nel primo caso (una cosa nuova per l’individuo) e di innovazione nel secondo caso (una cosa nuova per il mondo). Curiosamente lo stesso modello spiega entrambi i fenomeni. Sembra che il pattern di come si scoprono le novita’ e’ lo stesso che regola l’emergenza dell’innovazione dall’adiacente possibile. Questo solleva delle questioni interessanti, non ultima quella del perche’ le cose dovrebbero andare proprio in questo modo. Ma apre anche un interno nuovo modo di pensare all’innovazione e agli eventi che portano alle novita’. Questi risultati forniscono un punto di partenza per un’analisi piu’ approfondita dell’adiacente possibile e la diversa natura degli eventi di innesco nell’evoluzione biologica, linguistica, culturale e tecnologica. Non ci resta che aspettare e vedere come lo studio dell’innovazione evolvera’ dall’adiacente possibile come risultato di questo lavoro.

Qui l’articolo di Loreto e colleghi per chi vuole approfondire l’argomento: Link

http://www.wikio.it