venerdì 20 dicembre 2013

La Super-simmetria alle corde

 

Il modello standard della fisica delle particelle, nonostante i successi registrati negli ultimi anni, tra cui la previsione del bosone di Higgs, non ancora riesce a spiegare completamente il nostro universo. Per esempio non riesce a spiegare la materia oscura che i cosmologi credono riempire l’interno Universo e il perche’ subito dopo il Big Bang sia sopravvissuta la materia all’antimateria. Alcune estensioni del modello standard come la Super-simmetria, riescono a spiegare questi fenomeni prevedendo l’esistenza di nuove particelle chiamate “sparticle” e nuove interazioni.

Come si puo’ vedere dalla tabella la Super-simmetria associa ad ogni fermione (particella con spin semintero – lo spin e’ una grandezza quantistica che non ha equivalente nella meccanica classica anche se per analogia puo’ essere assimilabile ad una rotazione della particella intorno ad un proprio asse) un bosone (spin intero) e viceversa. Si tratta di una simmetria fra fermioni e bosoni. Quindi ogni fermione ha un superpartner bosonico ed ogni bosone un superpartner fermionico. Le coppie vengono chiamate partner supersimmetrici e le nuove particelle chiamate spartner o sparticelle. Notare che lo spin delle sparticelle e’ equivalente a quello delle particelle meno ½. Fino ad oggi, nessuna di queste particelle e’ stata individuata sperimentalmente. Ma essendo la super-simmetria una teoria molto elegante da un punto di vista matematico si tende a credere che essa sia corretta anche se non c’e’ al momento nessun riscontro sperimentale. Anzi. Una delle ultime notizie apparse su Nature riguardante la misura del dipolo elettrico dell’elettrone eseguita dalla collaborazione ACME guidata dal professore David De Mille della Yale University e da John Doyle e Gerald Gabrielse della Harward University (link articolo) sembra mettere alle corde la supersimmetria. Anche se questi ultimi risultati sembrano indicare una non correttezza della teoria super-simmetrica, esistono delle versioni modificate di tale teoria in cui i risultati ottenuti potrebbero essere ancora spiegati. Ma che tipo di misura ha effettuato il gruppo della collaborazione ACME? Che cosa e’ il dipolo elettrico dell’elettrone? In genere si conosce il momento di dipolo di molecole con una loro struttura interna come mostrato in figura (il dipolo per definizione e’ un sistema composto da due cariche elettriche uguali e di segno opposte e separate da una distanza costante nel tempo).

Ma se l’elettrone e’ puntiforme come fa ad avere una struttura interna? E se non ha una struttura interna come fa ad avere un dipolo elettrico? Per capire il dipolo elettrico dell’elettrone bisogna far ricorso alla meccanica quantistica che prende il posto della fisica classica quando scendiamo a livello atomico. Secondo la meccanica quantistica il vuoto pullula di particelle virtuali ( si parla di mare di particelle virtuali) come coppie di elettrone-positrone (elettrone con carica positiva) che si formano e si annichilano di continuo vivendo per frazioni infinitesime di tempo. In una regione dove c’e’ un elettrone lo spazio e’ riempito con queste coppie e poiche’ l’elettrone e’ carico negativamente esso attirera’ a se i positroni e respingera’ gli elettroni virtuali. Ecco come si forma il dipolo. Una nuvola di cariche positive che scherma la carica negativa dell’elettrone cosiddetto nudo (bare electron) cioe’ l’elettrone reale e non virtuale.

 

Se analizziamo questo effetto inserendo tutte le particelle-antiparticelle cariche previste dal modello standard, la nuvola intorno all’elettrone dovrebbe avere una simmetria quasi sferica e quindi un momento di dipolo elettrico inferiore a 10-36 e.cm (ricordiamo che il momento di dipolo come detto precedentemente e’ dato da u=q.d dove q e’ la carica e d la distanza delle due cariche del dipolo). Se estendiamo il modello standard con la Super-simmetria allora la nuvola elettronica dovra’ contenere anche le nuove particelle cariche ( i partner simmetrici delle particelle ordinarie del modello Standard) e la previsione teorica del momento di dipolo elettronico da’ un valore di 5x10-25 e.cm, superiore a quello del caso Standard. Ma dal momento che il valore ottenuto dalla collaborazione ACME e’ di molto inferiore a quello teorico previsto dalla Super-simmetria (|u| < 8.7×10−29 e.cm al 90% di confidenza) questo sembra indicare l’assenza di particelle Super-simmetriche in Natura. Lo scarto e’ estremamente piccolo anche se significativo. Se l’elettrone avesse le dimensioni del nostro sistema solare, la differenza da una sfera perfetta non supererebbe lo spessore di un capello. La misura del dipolo dell’elettrone e’ stata effettuata utilizzando il concetto di spin degli elettroni. Cosi come un uovo fatto ruotare intorno ad un suo asse barcollera’ a causa della sua forma oblunga mentre una palla di biliardo no (essendo una sfera quasi perfetta) se l’elettrone quantistico non e’ perfettamente sferico oscillera’ intorno al suo asse di spin. I ricercatori dell’ACME con il loro esperimento sono andati alla ricerca di questi barcollamenti degli elettroni utilizzando delle molecole di monossido di Torio molto pesanti.

In base ai risultati ottenuti dal team del professore De Mille possiamo dunque dire che la teoria super-simmetrica e’ morta? Non ancora anche se in molti lo credono visti gli ultimi risultati dell’LHC del CERN. Ad esclusione dell’ultimo tassello mancante del modello standard, il bosone di Higgs, finora non sono stati trovati segnali di nuove particelle. Ed e’ altamente improbabile dopo questo risultato del dipolo elettrico dell’elettrone che possa emergere qualche nuova particella nel dominio dei TeV (teraelettronvolt 1012 eV). Di sicuro i fisici che studiano il dipolo degli elettroni continueranno a fare di tutto per spingere il limite della loro misura sempre piu’ basso, nella speranza che un segnale venga infine trovato. Per questo motivo la comunita’ dei fisici e’ in trepidante attesa dei risultati della prossima sessione di collisioni del LHC, prevista per il 2014 quando l’acceleratore arrivera’ ad energie mai raggiunte prima. Non ci resta che aspettare per capire se davvero la teoria della Super-simmetria anche se matematicamente elegante non e’ quella scelta dalla Natura.

Articolo su arxiv: http://arxiv.org/abs/1310.7534

domenica 3 novembre 2013

Prevedere in anticipo i movimenti dei criminali grazie alla matematica

 

Uno scopo per studiare il comportamento dei criminali e’ quello di riuscire a predire la prossima mossa analizzando i loro movimenti. Negli ultimi anni sono stati sviluppati diversi modelli matematici tra cui l’UCLA model (University of California, Los Angeles) o anche hotspot model. I crimini non mostrano una distribuzione uniforme ne’ a livello spaziale ne’ a livello temporale. Ci sono regioni che sembrano essere ragionevolmente sicure e altre che invece appaiono molto pericolose con tassi di atti criminali molto elevati. Sono questi aggregati (clusters) spazio-temporali che vengono chiamati “hotspot” e la cui evoluzione puo’ essere studiata a scale sempre piu’ piccole (migliore risoluzione sia spaziale che temporale) grazie ai continui miglioramenti della tecnologia delle mappe.

Sono state sviluppate diverse teorie per capire perché’ gli hotspots emergono in alcune zone piuttosto che in altre, come evolvono e come si legano al comportamento dei delinquenti, vittime, agenti delle forze dell’ordine e geografia locale. In generale, i crimini hanno luogo quando un delinquente incontra una vittima “adatta” o un’abitazione senza alcun impianto di sicurezza. In questo contesto, la struttura urbana puo’ giocare un ruolo importante forzando il movimento del delinquente e i potenziali obiettivi. Per esempio, la quantita’ di traffico, le proprieta’ abbandonate o vacanti, la densita’ di popolazione solo per citarne alcune possono influenzare il pattern dei crimini. Qui in basso il cambiamento degli hotspot relativi ai furti avvenuti nella citta’ di Long Beach in California nei mesi Giugno, Luglio e Agosto 2001 (sinistra) e nei mesi Settembre, Ottobre e Novembre 2001 a destra.

In un articolo pubblicato sull’ultimo numero del SIAM Journal on Applied Mathematics, i matematici Sorathan Chaturapruek, Jonah Breslau, Daniel Yazdi, Theodore Kolokolnikov, e Scott McCalla hanno proposto una modifica del modello hotspot introducendo la distribuzione di Levy per i movimenti dei criminali da un posto all’altro. I criminali tendono a muoversi localmente ma ogni tanto fanno delle esplorazioni in aree lontane cosi come succede per molti animali quando vanno alla ricerca del cibo (vedi capitolo “La matematica della sopravvivenza” del mio libro). Questo comportamento replica molto da vicino il comportamento di tutti gli umani quando si muovono da una citta’ all’altra (pendolari).

Lo scopo principale di questo lavoro e’ stato lo studio dei dati riguardanti i furti nelle abitazioni per capire come i ladri scelgono i loro obiettivi e da qui cercare di inferire i movimenti dei criminali (Link). Il modello analizza la formazione dei punti caldi (hotspot) con alto tasso di atti criminali ricorrendo alla teoria della finestra rotta (Link) che prevede un’alta attivita’ criminale in aree che sono state gia’ interessate in precedenza da crimini. E’ piu’ facile che venga visitato un appartamento che ha gia’ subito un furto di recente che non un appartamento che non e’ mai stato scassinato. Stessa cosa per gli appartamenti vicini. Questo e’ quello che dicono i dati degli scassi a disposizione degli studiosi; una casa gia’ scassinata o vicina ad essa e’ piu’ “interessante” per diverse ragioni, quali la conoscenza di come entrare, le informazioni sugli oggetti di valore presenti, l’abilita’ di movimento e una maggiore confidenza a scappare via.

Il modello UCLA iniziale assumeva che i criminali si muovessero solo localmente seguendo un moto Browniano (o randomico). Ma con questa nuova pubblicazione gli studiosi si sono resi conto che un modello piu’ realistico deve permettere ai criminali delle “passeggiate” occasionali come previsto nei modelli di Levy.

Quest’ultimi sono una versione modificata del modello random walk dove la lunghezza di un particolare tragitto e’ un numero casule e la direzione di questo percorso e’ scelta anch’essa in modo del tutto casuale. Le passeggiate di Levy sono del tutto simili al moto randomico ad eccezione del fatto che la lunghezza dei percorsi viene scelta a partire da una distribuzione di probabilita’ (una power distribution) che permette di avere ogni tanto delle distanze percorse molto lunghe (vedi grafico sottostante dove l e’ la lunghezza in metri ed n la frequenza).

L’uso del modello di Levy permette quindi una esplorazione piu’ efficiente di un territorio e questo spiega perche’ e’ stato incluso nel modello UCLA.

La distribuzione di Levy e’ data dalla seguente forma approssimata

P(l)~l-u

dove l indica la lunghezza del percorso e P la probabilita’. Il valore dell’esponente u controlla il tipo di movimento passando da uno completamente casuale per u>3 ad uno completamente balistico e che nel limite per u che tende ad 1 diventa una linea retta. Osserviamo che essendo la legge di Levy una legge di potenza, cio’ significa che e’ indipendente dalla scala usata (scale-free in inglese) e quindi alla sua base c’e’ una traiettoria con dimensioni frattale (ad ogni scala la forma dell’oggetto e’ sempre la stessa). Per la distribuzione riportata nel grafico precedente e relativa al volo delle api nella ricerca delle arnie a cui ritornare risulta una dimensione frattale di 1.2

I lunghi tragitti o voli corrispondono alle lunghe distanze coperte all’interno di una grande citta’ molto probabilmente con i bus o la metropolitana o per muoversi da una citta’ all’altra. Questo permette ai criminali di spostarsi verso zone piu’ interessanti per i furti invece che rimanere confinati all’interno del proprio quartiere come succedeva nel modello iniziale. I dati disponibili sulle distanze tra le case dei criminali e quelle scassinate mostra chiaramente che i ladri sono disponibili a muoversi per lunghi tratti pur di ottenere un bottino piu’ remunerativo. Questa tendenza dei ladri mostra comunque delle differenze a seconda dei tipi di criminali. I professionisti e i criminali con esperienza riescono a coprire distanze sicuramente maggiori dei giovani dilettanti. Un gruppo di criminali professionisti che pianificano un colpo ad una banca, per esempio, ragionevolmente seguira’ una distribuzione di Levy. Gli studiosi hanno visto che il modello di Levy rispetto a quello che avevano utilizzato all’inizio gli aumenta il numero di reati; ma se il modello prevede troppe passeggiate di Levy allora esso puo’ diventare meno efficace di quello Browniano. Nel linguaggio statistico significa che c’e’ un esponente ottimale nella distribuzione di Levy che massimizza il numero di clusters (spot) di reati e questo valore fa si che la distribuzione di Levy sia molto vicino ad un moto Browniano.

Distribuzione degli spot con maggiore tasso criminale per un modello Random walk sulla sinistra e sulla destra per un modello di Lévy.

Da un punto di visto matematico il modello usa un sistema di due equazioni differenziali parziali che definiscono la densita’ criminale (hotspot o cluster) e l’attrazione verso zone piu’ remunerative da un punto di vista del bottino. La prima equazione e’ locale mentre la seconda e’ non locale. I due ricercatori Kolokolnikov e McCalla spiegano che nei modelli oggi disponibili la locazione e la forma dei clusters con alto tasso di reati sono ben studiati e capiti mentre i movimenti dei criminali non sono monitorati e quindi non ben capiti. Nella nostra ricerca invece, continuano gli studiosi, abbiamo trovato una chiara relazione tra la dinamica dei clusters e come i criminali si muovono. Tali modelli possono aiutare a contrastare meglio i crimini. Spesso le forze dell’ordine di alcuni paesi si concentrano sul territorio dove abitano criminali conosciuti alla polizia per predire i futuri reati. Se la relazione tra il movimento dei ladri e la scelta degli obiettivi diventera’ piu’ chiara, allora la polizia potra’ schedulare meglio le ronde notturne per il controllo del territorio.

Uno dei risultati sorprendenti del modello UCLA e’ di sicuro l’aver dimostrato che i ladri possono ottenere dei grossi benefici semplicemente facendo alcuni “salti” in zone distanti e per il resto seguire un moto Browniano (randomico) intorno alle loro abitazioni.

Lo studio dei ricercatori continua e chissa’ quali altre sorprese ci riservera’ il futuro.

Riuscira’ la matematica ad abbattere il numero dei reati nelle grandi citta’? Io dico di si.

sabato 19 ottobre 2013

Onde gravitazionali: increspature del tessuto spazio-temporale



Albert Einstein predisse l’esistenza delle onde gravitazionali nel 1916 all’interno della teoria della Relativita’ Generale. In essa lo spazio e il tempo sono aspetti di una singola realta’ misurabile chiamata spazio-tempo. Materia ed energia sono le due facce della stessa medaglia. E’ possibile pensare allo spazio-tempo come ad un tessuto; la presenza di grandi quantita’ di materia o energia distorce lo spazio-tempo (cioe’ deforma il tessuto) ed e’ questa distorsione che noi percepiamo come gravita’. Oggetti in caduta libera, siano essi palloni, mele o satelliti, seguono il cammino piu’ corto in questo spazio-tempo curvato.
 

Attenzione. La ricostruzione bidimensionale riportata qui sopra e’ solo un modello usato per rappresentare quello che nella realta’ e’ uno spazio a 4 dimensioni (3 spaziali e una temporale). Osservare anche che la curvatura del tessuto e’ debole lontano dalla massa mentre e’ molto accentuata nelle sue vicinanze. E’ chiaro che la perturbazione dello spazio-tempo dipende dalla quantita’ di materia o di energia. Maggiore e’ la massa maggiore e’ la curvatura sia dello spazio che del tempo. Non e’ difficile quindi immaginare cosa succeda all’aumentare della massa. Ad un certo punto il tessuto si strappa e si forma quello che conosciamo come un buco nero. La massa e’ cosi’ grande che niente puo’ sfuggire al suo intenso campo gravitazionale. Qualsiasi cosa che orbita nelle vicinanze cade all’interno del buco nero senza mai piu’ poter tornare indietro incluso la luce.
Ma cosa sono le onde gravitazionali? La maggior parte degli scienziati le descrivono come delle “increspature” dello spazio-tempo cosi come una barca che attraversa l’oceano calmo produce delle onde nell’acqua. Queste onde dovrebbero essere prodotte da masse in movimento come stelle o buchi neri. Piu’ gli oggetti sono massicci e piu’ potenti saranno le onde gravitazionali; piu’ gli oggetti si muovono velocemente e maggiore sara’ il numero di onde prodotte in un certo intervallo di tempo. Gli eventi piu’ interessanti quindi per la rilevazione di onde gravitazionali sono: scontri tra buchi neri, scontro tra due galassie (merging in inglese) o coppie di stelle di neutroni.  


Buchi neri, stelle o galassie in orbita tra loro e ancora di piu’ se si scontrano, “emanano” onde gravitazionali verso lo spazio esterno che raggiungono poi la Terra. Le onde gravitazionali rispetto a quelle elettromagnetiche sono molte piu’ deboli ma hanno il vantaggio di poter passare attraverso la materia senza essere significativamente perturbate.Per questo ci possono aiutare a capire meglio l’universo. Per esempio l’unica possibilita’ per poterci avvicinare al Big Bang con le nostre osservazioni e’ quella di usare le onde gravitazionali in quanto con la luce possiamo arrivare fino a circa 300000 anni dopo il grande scoppio ( a causa della continua interazione dei fotoni con la materia in quel burrascoso periodo). Gli scienziati credono che come il Big Bang abbia creato la cosiddetta radiazione cosmica di fondo abbia dato origine anche ad un diluvio di onde gravitazionali. Da quello che sappiamo oggi queste onde sono l’unica forma di informazione capace di arrivare a noi dopo il Big Bang senza essere state distorte. Esse dovrebbero apparire come un fondo “stocastico” o “randomico” e dovrebbero portare con se le informazioni sulla loro violenta origine e sulla natura della gravita’ che non possono essere ottenute con nessun altro oggetto astronomico. Sfortunatamente quando queste onde arrivano sulla Terra sono estremamente deboli e quindi difficili da rilevare. Questo e’ dovuto al fatto che come per le onde nell’acqua, l’intensita’ diminuisce man mano che ci si allontana dalla sorgente. Gli scienziati hanno dovuto usare la loro immaginazione per realizzare degli strumenti abbastanza sensibili per cercare di rilevare queste leggere variazioni dello spazio-tempo. La tecnica e’ quella dell’interferometria. Delle masse di prova vengono poste a grande distanza tra loro e dei laser continuamente misurano la distanza di queste masse. Le masse sono libere di muoversi in modo che quando passa un’onda gravitazionale la distanza tra esse viene disturbata e quindi fluttua. In altre parole lo spazio tempo verra’ allungato o accorciato a seconda della direzione dell’onda gravitazionale. I laser registrano queste variazioni della distanza permettendo agli scienziati di poter capire se e’ passata o meno un’onda gravitazionale. Piu’ grande e’ la distanza tra le masse, e piu’ i laser sono sensibili alle piccole fluttuazioni. Al momento ci sono diversi progetti sparsi per il mondo alla ricerca di queste onde: LIGO (USA), VIRGO (Italia/Francia), GEO (Germania/Gran Bretagna), TAMA (Giappone) e il progetto LISA (Agenzia Spaziale Europea) che dovrebbe entrare in funzione nel 2017. Quest’ultimo sara’ l’unico rilevatore a non trovarsi sulla superficie terrestre ma nello spazio. Esso sara’ costituito da tre satelliti artificiali posti ai lati di un triangolo equilatero, separati tra loro da una distanza di 5 milioni di chilometri. Questo triangolo si muovera’ in un’orbita solare, alla distanza di 1UA dal sole.
 


Il rilevatore LIGO (Laser Interferometer Gravitational-Wave Observatory ) invece e’ stato uno dei primi interferometri costruiti e ad oggi e’ quello piu’ sensibile. Si trova in America ed e’ un progetto congiunto tra scienziati del California Institute of Technology (Caltech) e del Massachusetts of Technology (MIT). E’ costituito da 3 rivelatori posti nelle citta’ di  Livingston, Hanford Site e Richland. Ognuno di essi e’ costituito da due bracci lunghi dai 2 ai 4 Km, posti ad angoli di 90 gradi tra loro, con la luce che passa attraverso dei tubi a vuoto del diametro di 1 m. Un’onda gravitazionale che colpisce il rivelatore tendera’ in una direzione ad allungare leggermente il braccio e nell’altra ad accorciarlo.
 


Sono queste piccole variazioni che i fisici del pianeta stanno cercando. Ma nonostante i lunghi bracci, le onde gravitazionali piu’ intense cambierebbero la distanza tra le estremita’ dei bracci di solo circa 10-18 metri (cioe’ un 1 preceduto da 18 zeri). La massima risoluzione che si puo’ ottenere al momento con LIGO e’ dell’ordine di 5X10-22 metri. Ma come si spiegano queste piccole fluttuazioni? L’intensita’ del campo delle onde gravitazionali, e’ espressa dal fattore adimensionale h=(GM/Rc2)(v2/c2)
dove il primo fattore e’ il potenziale Newtoniano dovuto ad una massa M ad una distanza R diviso la velocita’ della luce al quadrato. Il secondo fattore invece e’ il fattore relativistico essendo il rapporto tra il quadrato della velocita’ del sistema e quella della luce al quadrato. Essendo le distanze R delle sorgenti di onde gravitazionali molto grandi questo fa si che il parametro h sia molto, molto piccolo, da rendere quasi impossibile l’individuazione delle onde gravitazionali.
Ad oggi nessuno degli esperimenti e’ riuscito a “vedere” le onde gravitazionali. Ma questo non e’ un insuccesso in quanto contribuisce comunque a chiarire alcuni aspetti della storia primordiale del nostro Universo. Di modelli dell’universo neonato ne esistono diversi (teoria delle stringhe) e grazie al fatto che fino ad oggi non sono state osservate le onde gravitazionali ha fatto in modo di poter eliminare diversi possibili modelli. E’ stato un altro piccolo passo nella comprensione dei parametri che descrivono l’evoluzione dell’universo pochi minuti dopo il Big Bang. Secondo la teoria delle stringhe e’ possibile che nella fase iniziale dell’universo si siano formate delle stringhe cosmiche successivamente “stirate” dall’espansione; queste stringhe avrebbero potuto formare degli anelli di energia producendo delle onde gravitazionali. Poiché’ queste non sono state osservate, quei modelli che prevedono onde gravitazionali molto intense subito dopo la nascita dell’universo possono essere abbandonati (vedi articolo An Upper Limit on the Amplitude of Stochastic Gravitational-Wave Background of Cosmological Origin su Nature).
Riuscire a dimostrare l’esistenza delle onde gravitazionali non portera’ solo ad una migliore conoscenza del nostro universo e della sua nascita ma anche una conferma della cosiddetta teoria quantistica dei campi. Secondo la meccanica quantistica (dualismo onda-particella) ogni particella può essere considerata come un’onda e allo stesso tempo ogni onda (come quella della luce) come costituita da particelle (i fotoni nel caso della luce). Come un’ onda elettromagnetica si puo’ considerare come una sovrapposizione di fotoni, allo stesso modo un’onda gravitazionale si puo’ considerare come costituita da quanti detti “gravitoni”, particelle di massa nulla e viaggianti alla velocita’ della luce esattamente come i fotoni per “trasportare” la forza da un oggetto all’altro. Quindi la rilevazione delle onde gravitazionali sarebbe una prova dell’esistenza del gravitone che e’ l’unico bosone ancora mancante nel quadro del modello standard. Secondo questo modello le forze fondamentali sono 4: 1) Forza elettromagnetica 2) Forza debole 3) Forza nucleare 4) Forza gravitazionale
e ognuna di queste ha un “vettore” che trasmette l’interazione tra gli oggetti chiamato bosone (l’onda rossa dell’immagine qui sotto).
 

La prima forza e’ responsabile dell’interazione tra cariche elettriche e il vettore portatore di tale forza si chiama fotone, la seconda e’ responsabile della radioattivita’ del nucleo e i portatori sono le famose particelle Zo e W+/W-, la terza e’ responsabile della coesione del nucleo col vettore chiamato gluone (dall’inglese colla) e l’ultima dell’interazione tra la materia presente nel nostro universo grazie allo scambio del gravitone. Riguardo le particelle fondamentali, secondo il modello standard tutto si riduce ai cosiddetti quark e leptoni come mostrato nella tabella sottostante.
 


E’ stato proprio il modello standard negli ultimi mesi a trovarsi sotto le luci della ribalta grazie alla scoperta del Bosone di Higgs al CERN di Ginevra. Nel modello standard infatti c’era un problema: le particelle non avrebbero dovuto avere una massa implicando delle forze a lungo raggio di azione. Ma noi sappiamo che cio’ non e’ vero come nel caso delle forze deboli dove il raggio di azione e’ molto corto essendo i quanti mediatori delle particelle molto pesanti. Tutto e’ andato al suo posto nel momento in cui e’ stata scoperta la particella di Higgs. Secondo quanto predetto da Higgs le particelle non hanno massa ma l’acquistano solo dopo aver interagito con un campo detto appunto campo di Higgs. In questa ottica, i bosoni della forza elettrodebole hanno una massa in quanto interagiscono col campo di Higgs mentre i fotoni no in quanto non interagiscono con esso.
Un’analogia usata comunemente per rappresentare la diversa interazione delle particelle elementari con il campo di Higgs, e quindi l’origine delle loro masse, è quella del gelataio che arriva su una spiaggia affollata da bambini; tutti i bambini corrono verso il gelataio rallentandone il suo moto e dando cosi l’impressione che il gelataio sia diventato piu’ “pesante” essendo diventato piu’ lento. Se il campo di Higgs (i bambini sulla spiaggia) non esistesse, l’universo sarebbe fatto di particelle (i gelatai) senza massa in moto alla velocità della luce!
In definitiva l’eventuale scoperta delle onde gravitazionali e del gravitone aggiungerebbe un altro tassello importante al modello standard e alla comprensione quindi del mondo che ci circonda.


Ieri, 11 Febbraio 2016 e' stato dato l'annuncio della scoperta delle onde gravitazionali da parte del team LIGO. Qui di seguito i dettagli tecnici. Buona lettura.

https://www.ligo.caltech.edu/system/media_files/binaries/301/original/detection-science-summary.pdf

giovedì 5 settembre 2013

Sistemi complessi: adattamento, emergenza e prevedibilita’

 

Secondo il metodo scientifico tradizionale (quello di Galileo, Newton e Laplace per intenderci) per analizzare un problema bisogna isolarlo e semplificarlo per arrivare ad una formalizzazione matematica che permettera’ poi di trovare le possibili soluzioni (riduzionismo).

Una delle caratteristiche principali del riduzionismo e’ quella di cercare dei principi fisici che possano essere ricondotti ad un piccolo insieme di leggi fondamentali, una teoria finale che dovrebbe essere espressa in termini della fisica delle particelle.

E’ conoscenza comune, comunque che i sistemi viventi mostrano strutture e processi complessi, come il sistema immunitario, la mente, la rete metabolica e cosi via. La complessita’ e presente anche nel mondo inanimato come per esempio nelle strutture delle galassie. Quindi il riduzionismo contrariamente alla complessita’ cerca di spiegare tutto con un piccolo insieme di semplici leggi che dovrebbero spiegare l’esistenza dell’ordine nell’Universo. Se alla fine tutto si riduce a delle particelle elementari e poche leggi fisiche, da dove viene l’ordine (complessita’) presente nel nostro Universo? In altre parole il programma riduzionista non puo’ essere completo senza spiegare l’emergenza della complessita’.

Il riduzionismo si e’ dimostrato molto efficace per diversi problemi, come la costruzione di un palazzo, di un ponte, le automobili e i computer essendo questi dei sistemi caratterizzati da poche variabili non fortemente intercorrelate tra loro. In poiu’ questi problemi non cambiano nel tempo: la gravita’, il combustibile, le proprieta’ elettriche... sono tutte costanti nel tempo.

Ci sono due situazioni in cui questo approccio tradizionale non funziona. Una e’ quando il sistema ha molte variabili; in questo caso non e’ possibile trovare delle soluzioni a causa del tempo richiesto per l’analisi. Si possono solo applicare delle tecniche di ottimizzazione per avvicinarsi alla soluzione reale.

L’altra e’ quando il problema cambia nel tempo e quindi ogni possibile soluzione sara’ gia’ obsoleta appena trovata. In questo caso non e’ possibile fare alcuna previsione sull’evoluzione futura e le tecniche classiche diventano inadeguate.

L’impossibilita’ per molti sistemi fisici di fare delle previsioni accurate e’ stata sollevata dalla teoria del caos deterministico nei primi anni sessanta. E’ chiaro che un sistema deterministico porta a pensare ad un qualche cosa di prevedibile secondo quanto affermato da Laplace: se si conoscessero tutte le posizioni e velocita’ delle particelle presenti nell’universo, applicando le leggi di Newton, sarebbe possibile conoscere gli eventi passati e futuri del nostro universo.

In effetti ci sono diversi punti oscuri con la visione semplicistica di Laplace.

1. Anche con una descrizione completa di tutte le particelle dell’universo non saremmo capaci di fare previsioni sui vari fenomeni a diverse scale. La vita, la mente, i sogni, le emozioni l’immaginazione, l’economia, le guerre per citarne alcuni. Tutti questi fenomeni sono reali ed hanno un impatto sul mondo fisico, ma non possono essere descritti in termini di leggi delle particelle.

2. Un modello completo dell’universo per forza deve contenere il modello stesso. Questo porta ad un paradosso. Se il modello descrive l’universo e allo stesso tempo e’ parte dell’universo esso deve contenere se stesso infinite volte.

3. L’irreversibilta’ termodinamica ci ha insegnato che non e’ possibile risalire a tutti gli eventi del passato. Per esempio, se ci sono due stati che portano entrambi ad un stesso stato, una volta che siamo nell’ultimo stato non e’ piu’ possibile stabilire da quale dei due stati precedenti si e’ partiti.

4. Il determinismo non implica necessariamente la prevedibilita’. Questa e’ limitata nei sistemi caotici in quanto essi sono sensibili alle condizioni iniziali.

Nei sistemi caotici, stati iniziali molto simili possono portare a stati futuri completamente diversi tra loro. Per esempio una variabile con un valore di 1.3232323232 puo’ portare ad un valore finale di 0.3 mentre un valore iniziale di 1.3232323233 puo’ portare per esempio ad un valore finale di -3 indipendentemente dalla precisione delle nostre misure (questo comportamento puo’ essere misurato con gli esponenti di Lyapunov indicati con lambda). Questo comporta la non prevedibilita’ a lungo termine dei sistemi caotici.

Indicando con eo l’incertezza iniziale sempre presente, questa si propaga secondo la legge esponenziale riportata nella figura qui sopra dove l e’ il massimo esponente di Lyapunov. Nell’ipotesi di volere un incertezza massima minore o uguale ad 1 questo implica un tmax dato da

tmax=(1/l)ln(1/eo )

Questo significa che per quanto possa essere piccolo il tasso di crescita esponenziale l, se l>0 , per poter raddoppiare il tempo di previsione bisogna diminuire di molti ordini di grandezza l’incertezza iniziale raggiungendo inevitabilmente dei limiti invalicabili.

Un esempio classico di sistema caotico e’ quella della previsione meteo. Questa e’ limitata non perche’ la dinamica dell’atmosfera e’ sconosciuta agli scienziati ma perche’ nella dinamica dell’atmosfera e’ presente del caos a causa della dipendenza sensibile dalle condizioni iniziali. Anche se la precisione con cui riusciamo a determinare le condizioni iniziali venisse aumentata, la previsione non potrebbe essere fatta con alta confidenza per piu’ di due o tre giorni.

Un altro esempio di sistema con prevedibilita’ limitata e’ il traffico stradale. La dinamica dei veicoli e’ descritta dalla meccanica classica ma ci sono dei fattori aggiuntivi che vanno tenuti in conto che possono influenzare il movimento delle automobili (per esempio una bassa visibilita’, una strada bagnata, dei lavori in corso, un autista distratto, un autista sotto effetto dell’alcol, la presenza di pedoni etc. etc.)

E’ possibile provare a predire la futura posizione di un auto, ma questa previsione sara’ limitata nel tempo a non piu’ di un paio di minuti. Piccoli cambiamenti nella traiettoria di un veicolo possono portare a degli effetti significativi sul traffico di un ‘intera citta’. Questo e’ dovuto al numero elevato di interazioni tra ogni veicolo e il suo ambiente esterno: pedoni, semafori, pioggia etc. Queste interazioni sono alla base dei sistemi complessi.

Vediamo un attimo cosa si intende con complessita’. Etimologicamente il termine deriva dal latino plexus, che significa intrecciato. In altre parole, un sistema complesso e’ difficile da separare. Questo perche’ le interazioni tra le sue componenti sono rilevanti, visto che il futuro di ogni elemento dipende inesorabilmente dallo stato degli altri elementi.

Esempi di sistemi complessi sono ovunque: cellule, cervello, citta’, internet, mercati, colonie di insetti, ecosistemi, biosfera, popolazioni, terremoti, traffico solo per citarni alcuni. Tutti questi sistemi sono costituiti da elementi che interagiscono generando un comportamento del sistema che dipende dagli elementi stessi e dalle loro interazioni. Per esempio le cellule sono fatte di molecole; le cellule sono vive mentre le molecole no. Da dove viene quindi la vita? Questa viene dall’interazione delle molecole. Allo stesso modo il cervello e’ formato da neuroni e molecole; il cervello e’ capace di ragionare, immaginare, calcolare. Queste proprieta’ non sono presenti nei componenti (neuroni e molecole) ma sono generate dalla loro interazione. E’ proprio a causa della rilevanza delle interazioni che non e’ possibile ridurre il comportamento del sistema a quello delle sue parti. Le interazioni generano nuova informazione che non e’ presente nelle parti del sistema ma e’ essenziale per il suo comportamento.

Un classico esempio di complessita’ e’ il gioco della vita di Conway dal nome del matematico che l’ha inventato nel 1982. Esso consiste in un reticolo digitale in cui ogni cella puo’ prendere due valori: 1 (cella viva) e 0 (cella morta). Lo stato di ogni cella dipende dai suoi 8 primi vicini (N, NE, NO, S, SE, SO, E, O): se ci sono meno di due celle intorno ad una cella viva, questa muore di “solitudine”. Se ci sono piu’ di 3 celle vive, la cella centrale muore lo stesso a causa della “sovrappopolazione”. Se ci sono esattamente 2 o 3 celle vive la cella centrale rimane viva. Se intorno ad una cella morta ci sono esattamente 3 celle vive questa cambia il suo stato da morta a viva.

 

I primi vicini di ogni cella nel gioco vita.

Queste regole semplicissime riescono a produrre un comportamento di alta complessita’. Esistono certe strutture stabili che possono emergere da condizioni inziali del tutto casuali. Allo stesso modo esistono strutture oscillanti che ripetono un pattern dinamico con un ben determinato periodo.

 

Alcune iterazioni del gioco vita partendo da una struttura a croce con 12 celle vive (in nero).

Evoluzione di una colonia di batteri inizialmente composta da 4 batteri formanti un triangolo. Dopo 10 generazioni si ottiene un pattern ricorrente chiamato "semaforo”.

Cannone con gliders che si spostano verso sinistra in basso.

Altre strutture invece si muovono sul reticolo (chiamate gliders) con una velocita’ ben determinata fino a quando non incontrano qualche altra struttura con cui interagiscono. C’e’ una varieta’ di pattern dinamici sorprendente e molti devono ancora essere scoperti.

Il gioco Life e’ stato dimostrato essere anche un computer universale nel senso che puo’ compiere (anche se molto piu’ lentamente) qualsiasi calcolo che puo’ fare un altro computer come un IBM o Mac. Posizionando infatti opportunamente i cannoni di gliders e’ possibile creare dei flussi continui che interagiscono tra loro come possono fare gli impulsi di elettricità all’interno dei fili elettrici.

Con questi blocchi e’ possibile costruire dei gates logici come AND, OR e NOT. Questi gates a loro volta possono essere utilizzati per realizzare circuiti piu’ complessi. Tutti i componenti necessari per disegnare un computer sono presenti in Life come dimostrato da Conway e altri studiosi.

 

Il gate logico AND dove gli inputs sono inseriti nella prima riga dell’automa con delle specifiche condizioni iniziali e il desiderato output e’ nell’ultima riga a destra.

 

E’ possibile che questa ricchezza di strutture possa essere prevista dalle regole del gioco e dalle condizioni iniziali? La risposta e’ no. Le proprieta’ su larga scala non possono essere determinate a priori. L’unico modo per conoscere lo stato finale del sistema Life e’ quello di farlo evolvere sullo schermo di un computer.

 

Evoluzione del gioco della Vita a partire da una condizione casuale (a), dove le celle bianche sono quelle vive e le nere quelle morte. Dopo 410 passi (b), si formano alcune strutture stabili anche se ci sono ancora delle zone attive. Dopo 861 passi (c),alcune strutture sono state distrutte e altre sono state create. L’attivita’ continua nella parte bassa del reticolo. Dopo 1416 passi (d), la dinamica del sistema e’ periodica, con strutture stabili e oscillanti (Wilensky, 1999).

 

Sebbene il gioco Life e’ un universo discreto con delle regole molto semplici e una fisica perfettamente nota, non e’ stato ancora possibile esplorare l’intero mondo digitale ad esso associato. Ci sono diverse questioni che ancora non hanno una risposta e forse non l’avranno mai.

Un altro esempio di sistema complesso e’ dato dagli automi cellulari unidimensionali, studiati negli ultimi 20 anni da Stephen Wolfram che a loro ha dedicato diversi articoli e libri. Il gioco della vita e’ un automa cellulare a due dimensioni in quanto le celle sono disposte su di un piano.

Gli automi cellulari unidimensionali invece si sviluppano spazialmente su un riga di celle (l’asse x dello schermo del computer) e temporalmente lungo le righe inferiori dello schermo (l’asse y del monitor). Le celle di questi automi possono prendere due valori: zero e uno. Lo stato di ogni cella dipende dai suoi stati precedenti e da quelli dei suoi primi vicini (destra e sinistro). Questo significa che a partire dagli otto possibili stati (111, 110, 101, 100, 011, 010, 001, 000), verra’ assegnato un valore (zero o uno) per ogni combinazione. Poiche’ ci sono otto combinazioni e due possibili stati per ogni cella questo significa che ci saranno 2^8=256 diverse regole (11111111, 11111110, 11111101, ..., 00000000). Trasformando queste stringhe in base dieci ci si puo’ riferire ad esse con un numero (per es. la regola 10101010 corrisponde a 27+25+23+21=128+32+8+2=170). Tra queste 256 regole, alcune sono equivalenti tra loro e solo 88 mostrano avere delle dinamiche diverse.

Esistono delle regole che producono dei patterns ripetitivi molto semplici (per es. regole 254, 250). Altre regole producono delle strutture nidificate (per es, regole 90 e 22). Ci sono altre che producono dei patterns pseudo-casuali (per es. regole 30 e 45). Finalmente ci sono delle altre che producono strutture localizzate (per es. regola 119). Questi casi vengono illustrati nella nell’immagine seguente.

Similmente al gioco della Vita, ci sono delle strutture che persistono nel tempo e viaggiano nello spazio. Quando le strutture collidono, interagiscono e possono trasformarsi. Notare che ci sono interazioni a diverse scale: tra celle e tra strutture. Ma da dove viene tutta questa complessita’?

La risposta e’ semplice: dall’interazione delle celle.

Esempi di differenti classi di automi cellulari unidimensionali con uno stato iniziale costituito da una singola cella attiva nella riga iniziale (il tempo fluisce verso il basso). La regola 250 (a) produce dei patterns regolari (classe I). La regola 90 (b) produce dei patterns nidificati (classe II). La regola 30 (c) produce un output quasi casuale (classe III) mentre la regola 110 (d) genera delle strutture localizzate molto complesse (classe IV).

 

Automa cellulare unidimensionale regola 110 partendo da una condizione iniziale casuale.

Un altro automa cellulare unidimensionale con la proprieta’ della reversibilita’. Partendo da uno stato casuale (prima colonna a sinistra) l’automa passa da uno stato disordinato ad uno ordinato (colonna 4 da sinistra). Nella quinta colonna fino all’ultima a destra e’ mostrato l’automa usando come stato iniziale quello finale della colonna quarta. Notare la reversibilita’.

Regola 150 in domini finiti di larghezza 17,19 e 31 con periodi 15,510 e 31 rispettivamente.

  La complessita’ come gia’ detto porta con se l’impossibilita’ di fare previsioni. Comunque diversamente dai sistemi caotici questa impossibilita’ non nasce dalla dipendenza sensibile dalle condizioni iniziali ma dalla rilevanza delle interazioni e dalla nuova informazione che esse creano. Per esempio, lo stato futuro della semplice regola 110 non puo’ essere determinato senza far partire la simulazione al computer. Le strutture emergenti del gioco della Vita non possono essere predette a partire dalle sue semplici regole se il sistema non e’ stato fatto evolvere prima.

Quasi tutti i sistemi del mondo reale sono aperti e quindi interagiscono continuamente con l’ambiente circostante che a sua volta puo’ cambiare in continuazione. Questo fa si che sia praticamente impossibile fare delle previsioni a lungo termine. Per far fronte ai continui cambiamenti dell’ambiente esterno i sistemi complessi si adattano ad esso per far fronte a tutte le perturbazioni esterne. La differenza tra l’adattamento e la prevedibilita’ sta nel fatto che quest’ultima cerca di intervenire prima che una perturbazione influenzi il sistema. L’adattamento invece entra in gioco una volta che la perturbazione si e’ manifestata e il sistema cerca di adattarsi alla nuova situazione senza l’intervento umano.

Si puo’ dire che l’adattamento e’ un tipo di creativita’ come riportato dal fisico Kauffman nel 2008. I sistemi adattivi possono creare delle nuove soluzioni ai problemi. Ci sono diversi modi per creare un sistema adattivo. Uno di questi e’ l’uso del concetto di auto-organizzazione. Un sistema puo’ essere descritto come auto-organizzante se il suo comportamento dipende dall’interazione dei suoi elementi e non dal comportamento del singolo elemento o da una sorgente esterna. Tutti gli esempi riportati precedentemente possono essere visti come sistemi complessi auto-organizzati.

Un esempio di adattamento attraverso l’auto-organizzazione e’ stato proposto per il coordinamento del traffico (Gershenson 2005). Invece di provare a prevedere quando un flusso significativo di autovetture arriva ad un incrocio per gestire un semaforo, si puo’ pensare di dare la preferenza alla strada con piu’ alta domanda. In questo modo, i veicoli sulla strada con piu’ bassa domanda attenderanno un pochino di piu’, aumentando pero’ la probabilita’ che arrivino altri veicoli che si aggiungeranno a quelli in attesa. Una volta che la domanda supera una certa soglia il semaforo fa scattare il verde. Con queste semplici regole locali e senza una diretta comunicazione tra i semafori, viene promossa una sincronizzazione adattativa che aggiusta essa stessa alle condizioni del traffico.

Un tale sistema auto-organizzante ha mostrato di riuscire a ridurre i tempi di attesa del 50% con una notevole riduzione di soldi ed inquinamento. E questo semplicemente imitando quello che fa la natura da milioni di anni.

La maggior parte degli automi cellulare (per esempio quelli unidimensionali di Wolfram) non sono interessanti ( nel senso che la loro dinamica o e’ semplice o completamente casuale). Da qui la questione generale: dove si trovano gli automi cellulari interessanti all’interno dell’intero spazio delle regole possibili? Una risposta e’ venuta dallo scienziato Langton che ha suggerito che il comportamento complesso compare alla frontiera tra l’ordine e il caos (edge of chaos), cioe’ quando le regole (tramite qualche parametro particolare) si approssimano alla regione caotica allontanandosi dalla regione fredda dell’ordine. Ragionando allo stesso modo e’ arrivato alla conclusione che i sistemi viventi e quelli complessi possono solo esistere alla frontiera del caos dove l’informazione puo’ essere immagazzinata cambiata e trasmessa.

Gli automi cellulari hanno dimostrato di essere molto utili per analizzare una grande varieta’ di fenomeni naturali; questo perche’ la maggior parte dei processi fisici sono locali (le molecole interagiscono con quelle a loro vicine, i batteri con quelli che orbitano nelle loro vicinanze, le formiche e le persone principalmente con chi gli sta vicino....). Sebbene i fenomeni naturali siano continui, esaminando il sistema a passi discreti temporali non diminuisce la potenza dell’analisi. Quindi nel mondo artificiale degli automi cellulari e’ possibile scoprire un microcosmo simile a quello del mondo reale.

Una delle cose che salta all’occhio di tutti e’ l’ordine della Natura. Da un’ameba alle piante agli animali e all’universo stesso si trova un incredibile ordine ovunque. Questo fa nascere un’ovvia questione: da dove viene questo ordine? Come si e’ originato?

Una delle lezioni fondamentali degli automi cellulari e’ la loro capacita’ di auto-organizzarsi. Da semplici regole locali che nulla dicono circa il comportamento globale del sistema e’ possibile vedere l’emergere dell’ordine. Nelle parole del biologo teorico, Kauffman, si tratta di ordine a gratis. Ed e’ proprio quest’ordine a gratis che ci permette di emulare l’ordine che ritroviamo in Natura. Alla creazione dell’ordine e’ legato il concetto di complessita’. Come puo’ un insieme finito di molecole creare una persona umana capace di ragionare? Chiaramente il tutto e’ piu’ grande della somma delle singole parti. Come e’ possibile che le termiti riescano a costruire delle strutture molto complesse se il singolo individuo che inizia il nido non riesce nemmeno a vivere per il tempo necessario a finirlo?

La risposta come abbiamo visto l’hanno dato gli automi cellulari: tutto nasce grazie all’interazione locale tra i componenti del sistema che si auto-organizza (siano essi animati che inanimati).

Per chi voglia addentrarsi nel mondo degli automi cellulari, puo’ farlo utilizzando il programma free Mcell di Mirek Wojtowicz, che puo’ essere scaricato da sul sito http://www.mirekw.com/ca/

http://www.wikio.it