I bit della memoria

Anche se l’ipotesi che la mente sia un “software” è ancora molto controversa, viene comunque spontaneo paragonare il cervello a un computer, che usa i vari organi del corpo come periferiche ed elabora i dati che da essi riceve. Tuttavia, anche se questa idea è molto ben radicata, in realtà siamo parecchio lontani dall’aver capito in che modo il cervello opera sui dati. Se fosse simile a un computer, dovrebbe avere l’equivalente di una RAM per la memoria a breve trmine, e di un disco rigido (o SSD, se vogliamo fare i moderni) per quella a lungo termine. finora non sapevamo quali fossero gli equivalenti cerebrali di questi componenti; non sapevamo, cioè, come il cervello “fissa” i ricordi.  Gli esperimenti passati portano a ritenere che il formarsi di un ricordo equivalga al rafforzarsi di una determinata connessione tra alcuni neuroni del cervello, che li porta a scambiarsi impulsi elettrici secondo uno schema fisso. Queste connessioni, tuttavia, decadono in un tempo abbastanza breve, mentre i nostri ricordi possono rimanere per una vita intera. Ci deve essere quindi un meccanismo con cui il cervello “salva” queste connessioni per poi poterle ricreare quando servono.
Ora un gruppo di scienziati ha ipotizzato un meccanismo con cui questo processo può avvenire. Si tratta di una proteina, indicata col simbolo CaMKII, che viene prodotta durante il processo di creazione delle connessioni sinaptiche e va poi a legarsi con l’interno dei neuroni. In tale proteina rimane memorizzata la forma della connessione che l’ha generata.
La cosa più interessante è che le informazioni che vengono salvate nella proteina sono in forma binaria, come quelle dei computer: la proteina è di forma esagonale, e a ogni vertice può esserci o meno un gruppo fosfato. La presenza o assenza di questi gruppi equivale a un bit di informazione (0 o 1). La differenza rispetto ai computer è che, essendo gli elementi di proteina esagonali, un “byte” è composto da 6 bit invece che da 8.
Naturalmente il fatto che abbiamo scoperto la natura di questi bir non significa che siamo pronti a leggere i ricordi del cervello… ma il traguardo si è avvicinato un po’.
Maggiori informazioni sull’argomento nell’articolo che ho pubblicato su Nòva 24 di domenica scorsa, che potete leggere facendo clic qui sotto:

Share Button

Computer quantici

La produzione di un chip quantico a 16 bit D-Wave

Dal nome sembrerebbero un gadget tratto da qualche gioco di ruolo di fantascienza come Eclipse Phase. Ma in realtà i computer quantici sono qualcosa che potrebbe esistere presto (o forse già esiste) e che potrebbe far fare all’informatica un salto in avanti di portata incalcolabile.
Cos’è un computer quantico? Sappiamo tutti che, per manipolare l’informazione, i computer riducono tutto in bit, cioè cifre binarie che possono assumere il valore di 0 o 1. Il processore del computer con cui state leggendo questo post possiede un registro in cui sono salvati i bit su cui sta lavorando (probabilmente 32 o 64 bit), e a ogni ciclo di funzionamento compie delle operazioni matematiche su questi bit cambiandone il valore.
I bit in questione sono rappresentati dallo stato di componenti all’interno del processore. In un computer normale si tratta di componenti macroscopiche (per modo di dire, perché nei chip odierni ci vuole un microscopio molto potente per vederle; ma comunque si tratta ancora di oggetti formati da un bel numero di atomi). In un computer quantico, invece, per rappresentare queste unità minime di informazione si utilizzano particelle subatomiche. Per esempio, si può decidere che se o spin (momento angolare) di un elettrone è in un verso, vale 0, altrimenti vale 1.
I bit codificati in questo modo vengono chiamati qbit. Che ci si guadagna? Il punto è che, quando si lavora in questa scala di grandezze, entra in gioco la meccanica quantistica, che ci dice che lo stato di una particella non è mai definito, ma è una sovrapposizione di tutti gli stati possibili, a meno che un osservatore non lo vada a verificare. In pratica lo spin del nostro elettrone, mentre non lo guardiamo, non va né del tutto in un senso né nell’altro, ma è un mix delle due possibilità. Questo, che a prima vista potrebbe sembrare un problema, può essere utilizzato a nostro vantaggio per certi tipi di calcoli. Per esempio, se  vogliamo risolvere un problema che richiede di verificare il valore di una funzione per n valori diversi e poi farne la media, con un computer classico dobbiamo eseguire il calcolo n volte. Se invece usiamo un computer quantico i cui qbit possono assumere simultaneamente n valori diversi, è possibile eseguire il calcolo una sola volta e ottenere un risultato che, statisticamente, sarà pari alla media di tutti i risultati, risparmiando un gran numero di cicli di calcolo. Al crescere del numero dei qbit, la quantità dei cicli di calcolo risparmiati cresce esponenzialmente, tanto che un computer quantico con varie centinaia di qbit a disposizione potrebbe facilmente superare la potenza di tutti i computer oggi disponibili per l’umanità.
Ovviamente, una cosa è enunciare il principio, un’altra è metterlo in pratica. “Scrivere” un dato usando singole particelle subatomiche richiede componenti estremamente sofisticate, che stiamo cominciando a malapena a concepire. Inoltre, perché sia possibile lavorare con i qbit, occorre sfruttare un’altra proprietà della meccanica quantistica, che è l’entanglement. In pratica, se una serie di particelle viene prodotta da un unico processo quantistico, e poi andiamo a misurare una proprietà di una di esse (che, come abbiamo visto prima, è indefinita fino al momento dela misura), faremo diventare definita la proprietà non solo della particella misurata, ma di tutte le particelle coinvolte. Questo ci aiuta a misurare in una sola volta lo stato di tutti i qbit, ma nondimeno, al crescere del loro numero, produrre insiemi di qbit legati dall’entanglement diventa molto complicato. Infine, perché tutto questo abbia un senso occorre che non ci siano influenze dal mondo esterno: qualunque interfernza causa la decoerenza, cioè interrompe l’entanglement e rende impossibile leggere il valore dei qbit. Per evitare la decoerenza occorre prendere misure drastiche, come lavorare vicino allo zero assoluto.
Il D-Wave One, primo computer quantico commerciale

Nonostante tutto questo, esiste già chi produce un computer quantico: l’azienda canadese D-Wave ha recentemente venduto alla Lockeed-Martin per dieci milioni di dollari un primo esemplare di computer quantico, il D-Wave One. C’è però chi è scettico: un esperto del settore come Scott Aaronson ha dichiarato più volte che al momento attuale non esiste una tecnologia in grado di fare ciò che D-Wave dichiara (anche se ultimamente si è dichiarato disposto a rivedere il proprio giudizio di fronte a prove più approfondite).
Tuttavia c’è chi è ancora più scettico, e ritiene che i computer quantici siano una bufala, “Il moto perpetuo del 21esimo secolo”, qualcosa che è fisicamente impossibile costruire. Secondo costoro, al crescere del numero dei qbit cresce la difficoltà di leggerne i valori isolando il segnale dal rumore, e si raggiungerà ben presto un limite massimo oltre il quale i computer quantici non potranno andare. Un limite che non permetterà di usarli per scopi effettivamente utili. Aaronson non è d’accordo, e sul suo blog ha lanciato una sfida: pagherà 100.000  $ a chi dimostrerà in modo convincente che esiste un limite fisico, e non solo tecnologico, alla costruzione di computer quantici di potenza a piacere.
È una sfida che ha un sapore filosofico. Non si tratta solo di risolvere un problema tecnico, ma di andare a vedere se il mondo del tutto controintuitivo dei quanti, in cui non c’è nulla di definito e ogni cosa assume più stati contemporaneamente, è confinato nel regno dell’infinitamente piccolo, o se invece noi possiamo sfruttare le sue proprietà nel mondo macroscopico per effettuare un calcolo.  Finora chi si bocciava le teorie quantistiche come impossibili o assurde ha sempre avuto torto, vedremo come andrà questa volta.
Su questo tema ho scritto un articolo pubblicato sulla prima pagina di Nòva 24 di domenica 5 marzo. Potete leggerlo facendo clic quì sotto:

Share Button

Più lenti della luce

Avevo scritto:

“Teniamo presente che la cosa tuttora più probabile è che si tratti di un errore. […] A volte i risultati più improbabili hanno cause del tutto banali, e ci vogliono anni per scoprirle. Quindi prepariamoci alla possibilità che tra qualche mese o anno tutto finisca nel nulla.

Da allora sono passati cinque mesi, e ora pare proprio che le cose stessero così. Devo ammettere però che, come causa dell’errore che ha fatto pensare che i neutrini potessero essere più veloci della luce, mi aspettavo comunque qualcosa di più interessante di un cavo fissato male.

Share Button

A pesca di neutrini

Una sfera di vetro, resistente alla pressione e contenente una trentina di fotomoltiplicatori, viene calata in mare (proprietà consorzio KM3NeT)

Mariastella Gelmini non lo sapeva, ma i neutrini sono particelle prive di carica elettrica e quasi prive di massa, che viaggiano nello spazio in linea retta senza farsi deviare da nulla e attraversano un pianeta come la Terra come se non esistesse neppure. Per questo motivo i neutrini sono un’ottima fonte di informazione su quello che succede in zone remote dell’Universo, dato che nulla li ferma o li sposta. Il problema è che particelle del genere sono anche molto difficili da individuare, dato che attraversano qualsiasi cosa come se fossero fantasmi. Un osservatorio per neutrini, quindi, funziona in modo molto particolare. Per cominciare, invece che guardare verso il cielo, guarda verso la Terra: in questo modo non viene disturbato da particelle di altro genere, mentre “vede” comunque i neutrini che attraversano facilmente il pianeta. In secondo luogo, l’osservatorio deve essere circondato da grandi quantità di materia. In questo modo, i neutrini che l’attraversano lasciano ogni tanto una debole traccia, un lampo di radiazioni che sensori sufficientemente acuti possono catturare e interpretare. E’ per questo che l’osservatorio del Gran Sasso sta sotto una montagna, e l’osservatorio Ice Cube sotto il ghiaccio dell’Antartide. Il prossimo osservatorio, invece, verrà costruito sul fondo del Mediterraneo, circondato non da roccia o ghiaccio, da dall’acqua.
Se volete saperne di più, leggete l’articolo che ho scritto in proposito su Nòva 24 di oggi, che trovate in edicola allegato a Il Sole 24 Ore, oppure facendo clic su:

Share Button

Più veloci della luce

Il recente annuncio fatto dal CERN e dai Laboratori del Gran Sasso, secondo cui per i neutrini generati nel corso di un esperimento sarebbe stata rilevata una velocità superiore a quella della luce nel vuoto, ha destato un grande scalpore ed è stata spesso frainteso nella sua portata. Meglio allora provare a fare un po’ di chiarezza.
In primo luogo, teniamo presente che la cosa tuttora più probabile è che si tratti di un errore. Gi scienziati autori dell’esperimento hanno controllato i risultati per tre anni prima di renderli pubblici, tenendo conto di cause di errore anche minime, come la deriva dei continenti. E tuttavia, si tratta di una misura molto difficile (si parla di una discrepanza di 60 nanosecondi su un tempo di 2 millisecondi, in un fenomeno il cui inizio e la cui fine si trovano a 700 Km di distanza!); inoltre può esserci dietro un errore non banale e difficile da cogliere. Pensiamo a cosa è successo con il caso della cosiddetta “anomalia Pioneer“. Per anni gli scienziati si sono arrovellati sulla causa della minuscola deviazione delle sonde spaziali Pioneer 10 e 11 rispetto alla rotta prevista, tirando in ballo le forze fondamentali dell’Universo per dare una spiegazione. Alla fine è stato proposto un modello molto credibile che spiega tutto con un’asimmetria nell’irraggiamento termico delle sonde. A volte i risultati più improbabili hanno cause del tutto banali, e ci vogliono anni per scoprirle. Quindi prepariamoci alla possibilità che tra qualche mese o anno tutto finisca nel nulla.
Del resto, c’è chi ha fatto notare che, quando nel 1987 è esplosa la supernova SN 1987A, i neutrini emessi sono stati osservati sulla Terra tre ore prima del lampo dell’esplosione (un anticipo compatibile col fatto che il collasso della stella comincia nel suo nucleo e impiega del tempo a coinvolgere la superficie emettendo luce). Se i neutrini fossero più veloci della luce come risulta dall’esperimento, dato che la stella dista 168.000 anni luce dalla Terra, sarebbero dovuti arrivare qui con anni di anticipo. Ovviamente questo non esclude la possibilità che alcuni neutrini siano talvolta più veloci della luce, ma è sicuramente un indizio contrario.
In secondo luogo, se anche fosse provato che effettivamente i neutrini si muovono leggermente più veloci della luce, questo non significherebbe necessariamente una c0mpleta rivoluzione nella fisica. La teoria della relatività è stata confermata in innumerevoli occasioni, e non basta un singolo esperimento a metterne in discussione le fondamenta. Come già molti hanno fatto notare, la teoria prevede che ci sia una velocità massima non superabile, che può essere raggiunta solo da particelle prive di massa a riposo. Quindi, se si scoprisse che i fotoni si muovono davvero più lentamente dei neutrini, ciò potrebbe voler dire semplicemente che i fotoni sono dotati di una massa, anche se piccola, e quindi non sono le particelle più veloci nell’Universo. Un fatto del genere imporrebbe di rifare i calcoli in ogni aspetto della fisica delle particelle e della cosmologia. Però non andrebbe a intaccare il fatto che c’è una barriera che non si può superare in alcun modo: si limiterebbe di spostarla in là di qualche nanosecondo,  irrilevante per i viaggi spaziali.
Ovviamente non possiamo neppure escludere che l’esperimento diventi il punto di partenza di una fisica totalmente nuova, in cui cose che prima erano ritenute impossibili saranno alla nostra portata. In effetti è quello che speriamo tutti. Ma ci vorrà comunque del tempo.
A margine della questione vorrei stigmatizzare il modo in cui in Italia ci si è occupati dell’argomento. Quasi tutti i quotidiani hanno datro la notizia in modo poco comprensibile, affermando per esempio che i neutrini sarebbero “più veloci della luce di 60 nanosecondi”. Chi scrive una cosa del genere non ha ben presente nemmeno la fisica del liceo, dato che la velocità è un rapporto tra spazio e tempo, e non si misura con unità di tempo.
Ma questo è nulla di fronte all’incompetenza dimostrata dalla nostra ministra dell’Istruzione, Università e Ricerca, o meglio dall’ignoto collaboratore che ha esteso per lei il comunicato ufficiale relativo all’evento (e che evidentemente è stato scelto con gli stessi criteri di merito di cui si è avvalsa la Gelmini). Tutto il mondo si è fatto delle gran risate leggendo che, secondo il testo firmato dalla ministra, esiste un tunnel tra i laboratori del CERN e quelli del Gran Sasso (700 chilometri!). Ma è tutto il comunicato a essere ridicolo, con quell’esaltare la “vittoria epocale” del “superamento della velocità della luce”, come se la cosa non fosse da verificare, e come se il risultato fosse stato attivamente cercato e non del tutto inatteso.
La Gelmini si è difesa dicendo che ovviamente voleva riferirsi al tunnel sotterraneo che ospita il sincrotrone del CERN. A questo punto però vorrei sapere: visto che il SPS è stato costruito negli anni ’70, di quali soldi esattamente parla la ministra? In ogni caso i ricercatori italiani del CERN non sembrano esserle molto grati, dato che l’anno scorso hanno manifestato in massa contro la riforma Gelmini dell’università. E, tanto perché lo sappiate,  la persona a capo dell’esperimento, il professor Ereditato, è cittadino italiano, ma è stipendiato dalla Svizzera.

Share Button

Per difendersi dai cigni neri


Dopo l’uscita del libro di Nassim Nicholas Taleb, il cigno nero è diventato simbolo dell’imprevedibilità. Secondo Taleb, i disastri economici (ma non solo quelli) derivano dal fatto che ci fidiamo troppo della nostra capacitàdi prevedere il futuro mediante modelli. Quando il modello all’improvviso si distacca dalla realtà, siamo del tutto indifesi.
C’è un’azienda italiana, Ontonix, che si occupa di valutare la vulnerabilità delle aziende, valutandone la complessità e gli effetti di possibili variazioni impreviste sul suo stato di salute. Per farlo non si serve di modelli, ma di una valutazione di tipo topologico che misura le mutue influenze (anche non evidenti) delle parti del sistema-azienda tra loro. E non solo di un’azienda: una branca di Ontonix, Ontomed, si occupa invece di valutare il rischio di crisi di pazienti in rianimazione!
Ho scritto un articolo in proposito (non lungo quanto avrei voluto) su Nòva 24. Potrete leggerlo facendo clic qui sotto:

Share Button

Energia dall'acqua

Che succede quando l’acqua di un fiume si mescola con quella del mare? I due liquidi si mescolano e si ottiene dell’acqua con una salinità intermedia. Si tratta di un cosiddetto fenomeno irreversibile (cioè che avviene spontaneamente in una sola direzione: potete aspettare un’eternità, ma non vi succederà mai di vedere acqua dolce separarsi spontaneamente dal mare). In natura, quando accade un fenomeno di questo tipo, l’entropia del sistema aumenta. Se l’entropia aumenta, significa che il sistema è sceso a un livello di energia più basso. L’energia che manca, normalmente, si dissipa in calore. Ma, utilizzando qualche accorgimento tecnologico, è invece possibile pensare di sfruttare questa energia, costruendo centrali elettriché là dove fiumi si gettano nel mare. Per saperne di più, leggete il mio articolo in edicola oggi su Nòva 24, facendo clic qui sotto:(Il titolo che è stato dato all’articolo non corrisponde del tutto al contenuto, dato che l’osmosi riguarda il “vecchio” metodo per estrarre energia dal gradiente di salinità, non quello nuovo proposto da vari ricercatori italiani.)

Nel 2009 avevo già scritto per Wired un altro breve articolo sull’argomento.

Share Button