Category Archives: Nòva 24

I bit della memoria

Anche se l’ipotesi che la mente sia un “software” è ancora molto controversa, viene comunque spontaneo paragonare il cervello a un computer, che usa i vari organi del corpo come periferiche ed elabora i dati che da essi riceve. Tuttavia, anche se questa idea è molto ben radicata, in realtà siamo parecchio lontani dall’aver capito in che modo il cervello opera sui dati. Se fosse simile a un computer, dovrebbe avere l’equivalente di una RAM per la memoria a breve trmine, e di un disco rigido (o SSD, se vogliamo fare i moderni) per quella a lungo termine. finora non sapevamo quali fossero gli equivalenti cerebrali di questi componenti; non sapevamo, cioè, come il cervello “fissa” i ricordi.  Gli esperimenti passati portano a ritenere che il formarsi di un ricordo equivalga al rafforzarsi di una determinata connessione tra alcuni neuroni del cervello, che li porta a scambiarsi impulsi elettrici secondo uno schema fisso. Queste connessioni, tuttavia, decadono in un tempo abbastanza breve, mentre i nostri ricordi possono rimanere per una vita intera. Ci deve essere quindi un meccanismo con cui il cervello “salva” queste connessioni per poi poterle ricreare quando servono.

Ora un gruppo di scienziati ha ipotizzato un meccanismo con cui questo processo può avvenire. Si tratta di una proteina, indicata col simbolo CaMKII, che viene prodotta durante il processo di creazione delle connessioni sinaptiche e va poi a legarsi con l’interno dei neuroni. In tale proteina rimane memorizzata la forma della connessione che l’ha generata.

La cosa più interessante è che le informazioni che vengono salvate nella proteina sono in forma binaria, come quelle dei computer: la proteina è di forma esagonale, e a ogni vertice può esserci o meno un gruppo fosfato. La presenza o assenza di questi gruppi equivale a un bit di informazione (0 o 1). La differenza rispetto ai computer è che, essendo gli elementi di proteina esagonali, un “byte” è composto da 6 bit invece che da 8.

Naturalmente il fatto che abbiamo scoperto la natura di questi bir non significa che siamo pronti a leggere i ricordi del cervello… ma il traguardo si è avvicinato un po’.

Maggiori informazioni sull’argomento nell’articolo che ho pubblicato su Nòva 24 di domenica scorsa, che potete leggere facendo clic qui sotto:

Computer quantici

La produzione di un chip quantico a 16 bit D-Wave

Dal nome sembrerebbero un gadget tratto da qualche gioco di ruolo di fantascienza come Eclipse Phase. Ma in realtà i computer quantici sono qualcosa che potrebbe esistere presto (o forse già esiste) e che potrebbe far fare all’informatica un salto in avanti di portata incalcolabile.

Cos’è un computer quantico? Sappiamo tutti che, per manipolare l’informazione, i computer riducono tutto in bit, cioè cifre binarie che possono assumere il valore di 0 o 1. Il processore del computer con cui state leggendo questo post possiede un registro in cui sono salvati i bit su cui sta lavorando (probabilmente 32 o 64 bit), e a ogni ciclo di funzionamento compie delle operazioni matematiche su questi bit cambiandone il valore.

I bit in questione sono rappresentati dallo stato di componenti all’interno del processore. In un computer normale si tratta di componenti macroscopiche (per modo di dire, perché nei chip odierni ci vuole un microscopio molto potente per vederle; ma comunque si tratta ancora di oggetti formati da un bel numero di atomi). In un computer quantico, invece, per rappresentare queste unità minime di informazione si utilizzano particelle subatomiche. Per esempio, si può decidere che se o spin (momento angolare) di un elettrone è in un verso, vale 0, altrimenti vale 1.

I bit codificati in questo modo vengono chiamati qbit. Che ci si guadagna? Il punto è che, quando si lavora in questa scala di grandezze, entra in gioco la meccanica quantistica, che ci dice che lo stato di una particella non è mai definito, ma è una sovrapposizione di tutti gli stati possibili, a meno che un osservatore non lo vada a verificare. In pratica lo spin del nostro elettrone, mentre non lo guardiamo, non va né del tutto in un senso né nell’altro, ma è un mix delle due possibilità. Questo, che a prima vista potrebbe sembrare un problema, può essere utilizzato a nostro vantaggio per certi tipi di calcoli. Per esempio, se  vogliamo risolvere un problema che richiede di verificare il valore di una funzione per n valori diversi e poi farne la media, con un computer classico dobbiamo eseguire il calcolo n volte. Se invece usiamo un computer quantico i cui qbit possono assumere simultaneamente n valori diversi, è possibile eseguire il calcolo una sola volta e ottenere un risultato che, statisticamente, sarà pari alla media di tutti i risultati, risparmiando un gran numero di cicli di calcolo. Al crescere del numero dei qbit, la quantità dei cicli di calcolo risparmiati cresce esponenzialmente, tanto che un computer quantico con varie centinaia di qbit a disposizione potrebbe facilmente superare la potenza di tutti i computer oggi disponibili per l’umanità.

Ovviamente, una cosa è enunciare il principio, un’altra è metterlo in pratica. “Scrivere” un dato usando singole particelle subatomiche richiede componenti estremamente sofisticate, che stiamo cominciando a malapena a concepire. Inoltre, perché sia possibile lavorare con i qbit, occorre sfruttare un’altra proprietà della meccanica quantistica, che è l’entanglement. In pratica, se una serie di particelle viene prodotta da un unico processo quantistico, e poi andiamo a misurare una proprietà di una di esse (che, come abbiamo visto prima, è indefinita fino al momento dela misura), faremo diventare definita la proprietà non solo della particella misurata, ma di tutte le particelle coinvolte. Questo ci aiuta a misurare in una sola volta lo stato di tutti i qbit, ma nondimeno, al crescere del loro numero, produrre insiemi di qbit legati dall’entanglement diventa molto complicato. Infine, perché tutto questo abbia un senso occorre che non ci siano influenze dal mondo esterno: qualunque interfernza causa la decoerenza, cioè interrompe l’entanglement e rende impossibile leggere il valore dei qbit. Per evitare la decoerenza occorre prendere misure drastiche, come lavorare vicino allo zero assoluto.

Il D-Wave One, primo computer quantico commerciale

Nonostante tutto questo, esiste già chi produce un computer quantico: l’azienda canadese D-Wave ha recentemente venduto alla Lockeed-Martin per dieci milioni di dollari un primo esemplare di computer quantico, il D-Wave One. C’è però chi è scettico: un esperto del settore come Scott Aaronson ha dichiarato più volte che al momento attuale non esiste una tecnologia in grado di fare ciò che D-Wave dichiara (anche se ultimamente si è dichiarato disposto a rivedere il proprio giudizio di fronte a prove più approfondite).

Tuttavia c’è chi è ancora più scettico, e ritiene che i computer quantici siano una bufala, “Il moto perpetuo del 21esimo secolo”, qualcosa che è fisicamente impossibile costruire. Secondo costoro, al crescere del numero dei qbit cresce la difficoltà di leggerne i valori isolando il segnale dal rumore, e si raggiungerà ben presto un limite massimo oltre il quale i computer quantici non potranno andare. Un limite che non permetterà di usarli per scopi effettivamente utili. Aaronson non è d’accordo, e sul suo blog ha lanciato una sfida: pagherà 100.000  $ a chi dimostrerà in modo convincente che esiste un limite fisico, e non solo tecnologico, alla costruzione di computer quantici di potenza a piacere.

È una sfida che ha un sapore filosofico. Non si tratta solo di risolvere un problema tecnico, ma di andare a vedere se il mondo del tutto controintuitivo dei quanti, in cui non c’è nulla di definito e ogni cosa assume più stati contemporaneamente, è confinato nel regno dell’infinitamente piccolo, o se invece noi possiamo sfruttare le sue proprietà nel mondo macroscopico per effettuare un calcolo.  Finora chi si bocciava le teorie quantistiche come impossibili o assurde ha sempre avuto torto, vedremo come andrà questa volta.

Su questo tema ho scritto un articolo pubblicato sulla prima pagina di Nòva 24 di domenica 5 marzo. Potete leggerlo facendo clic quì sotto:

A pesca di neutrini

Una sfera di vetro, resistente alla pressione e contenente una trentina di fotomoltiplicatori, viene calata in mare (proprietà consorzio KM3NeT)

Mariastella Gelmini non lo sapeva, ma i neutrini sono particelle prive di carica elettrica e quasi prive di massa, che viaggiano nello spazio in linea retta senza farsi deviare da nulla e attraversano un pianeta come la Terra come se non esistesse neppure. Per questo motivo i neutrini sono un’ottima fonte di informazione su quello che succede in zone remote dell’Universo, dato che nulla li ferma o li sposta. Il problema è che particelle del genere sono anche molto difficili da individuare, dato che attraversano qualsiasi cosa come se fossero fantasmi. Un osservatorio per neutrini, quindi, funziona in modo molto particolare. Per cominciare, invece che guardare verso il cielo, guarda verso la Terra: in questo modo non viene disturbato da particelle di altro genere, mentre “vede” comunque i neutrini che attraversano facilmente il pianeta. In secondo luogo, l’osservatorio deve essere circondato da grandi quantità di materia. In questo modo, i neutrini che l’attraversano lasciano ogni tanto una debole traccia, un lampo di radiazioni che sensori sufficientemente acuti possono catturare e interpretare. E’ per questo che l’osservatorio del Gran Sasso sta sotto una montagna, e l’osservatorio Ice Cube sotto il ghiaccio dell’Antartide. Il prossimo osservatorio, invece, verrà costruito sul fondo del Mediterraneo, circondato non da roccia o ghiaccio, da dall’acqua.

Se volete saperne di più, leggete l’articolo che ho scritto in proposito su Nòva 24 di oggi, che trovate in edicola allegato a Il Sole 24 Ore, oppure facendo clic su:

Per difendersi dai cigni neri

Dopo l’uscita del libro di Nassim Nicholas Taleb, il cigno nero è diventato simbolo dell’imprevedibilità. Secondo Taleb, i disastri economici (ma non solo quelli) derivano dal fatto che ci fidiamo troppo della nostra capacitàdi prevedere il futuro mediante modelli. Quando il modello all’improvviso si distacca dalla realtà, siamo del tutto indifesi.

C’è un’azienda italiana, Ontonix, che si occupa di valutare la vulnerabilità delle aziende, valutandone la complessità e gli effetti di possibili variazioni impreviste sul suo stato di salute. Per farlo non si serve di modelli, ma di una valutazione di tipo topologico che misura le mutue influenze (anche non evidenti) delle parti del sistema-azienda tra loro. E non solo di un’azienda: una branca di Ontonix, Ontomed, si occupa invece di valutare il rischio di crisi di pazienti in rianimazione!

Ho scritto un articolo in proposito (non lungo quanto avrei voluto) su Nòva 24. Potrete leggerlo facendo clic qui sotto:

Energia dall’acqua

Che succede quando l’acqua di un fiume si mescola con quella del mare? I due liquidi si mescolano e si ottiene dell’acqua con una salinità intermedia. Si tratta di un cosiddetto fenomeno irreversibile (cioè che avviene spontaneamente in una sola direzione: potete aspettare un’eternità, ma non vi succederà mai di vedere acqua dolce separarsi spontaneamente dal mare). In natura, quando accade un fenomeno di questo tipo, l’entropia del sistema aumenta. Se l’entropia aumenta, significa che il sistema è sceso a un livello di energia più basso. L’energia che manca, normalmente, si dissipa in calore. Ma, utilizzando qualche accorgimento tecnologico, è invece possibile pensare di sfruttare questa energia, costruendo centrali elettriché là dove fiumi si gettano nel mare. Per saperne di più, leggete il mio articolo in edicola oggi su Nòva 24, facendo clic qui sotto:(Il titolo che è stato dato all’articolo non corrisponde del tutto al contenuto, dato che l’osmosi riguarda il “vecchio” metodo per estrarre energia dal gradiente di salinità, non quello nuovo proposto da vari ricercatori italiani.)

Nel 2009 avevo già scritto per Wired un altro breve articolo sull’argomento.