Fanta-Scienza

Dopo aver parlato qui per anni di libri altrui, è la volta che finalmente vi parlo di un libro mio: da qualche giorno è in vendita Fanta-Scienza, un’antologia di racconti che ho curato personalmente e che contiene anche un mio racconto. Un libro la cui lavorazione è stata parecchio travagliata, e di cui ho deciso di svelare qui tutte le complicate vicissitudini.

L’idea mi venne diversi anni fa, quando Repubblica Sera mi commissionò un articolo prendendo come spunto l’antologia Hieroglyph curata da Neal Stephenson, che si proponeva di diffondere una fantascienza più ottimista e a questo scopo aveva fatto scrivere dei racconti ispirati dalle previsioni per il futuro espresse dai ricercatori dell’università dell’Arizona. Una delle persone cui chiesi un commento fu Bruce Sterling, che mi scrisse:

I hope that more schools will see the good sense of this effort and try it themselves.  If an Italian university tried it I would be the first to celebrate”.

L’approccio positivista di Stehpenson non mi convinceva affatto, ma l’idea di far collaborare ricercatori e scrittori per ottenere racconti di fantascienza mi sembrò molto interessante. Il suggerimento di Sterling che un’università italiana avrebbe potuto fare la stessa cosa mi diede la spinta definitiva. Ma chi in Italia nel mondo della ricerca avrebbe potuto darmi corda per un’idea del genere?

La risposta arrivò poco dopo quando intervistai per Nòva 24 Roberto Cingolani. L’intervista si trasformò in una chiacchierata a ruota libera che solo in minima parte trovò spazio nell’articolo, e mi fece tra l’altro scoprire in lui un appassionato di fantascienza (ricordo che citò Iain M. Banks, il tipo di scrittore che solo gli intenditori conoscono). Ci misi quasi due anni a trovare il coraggio di farmi avanti, ma alla fine gli chiesi via mail se il suo Istituto Italiano di Tecnologia sarebbe stato interessato a collaborare a un progetto del genere. Mi rispose così:

Come attività sarebbe fuori dai compiti istituzionali. Credo che l’unica cosa possibile per noi sia fornire un supporto individuale volontario. Ci sono ricercatori che potrebbero fornire opinioni sulla realizzabilità di idee e scenari fantascientifici, oppure fornire qualche spunto per nuovi racconti.

“L’unica cosa possibile” era anche l’unica che davvero mi serviva. Era in pratica un “sì”, sia pure condizionato. Ora bisognava fare il passo successivo: trovare un editore che fosse disposto a darmi un budget: non aveva senso, mi pareva, coinvolgere una prestigiosa istituzione scientifica, e far lavorare diverse persone, senza sapere chi avrebbe pubblicato il tutto, senza poter promettere dei compensi, e così via.

Purtroppo questa parte del piano si rivelò irrealizzabile. A parole tutti trovavano che l’idea fosse interessante, ma in pratica nessuno era interessato a pubblicarla. Dopo i primi rifiuti, chiesi addirittura consiglio a Giulio Mozzi, il quale fu estremamente gentile e si offrì spontaneamente di proporre il mio progetto ad alcuni editori di primo piano. Ma nemmeno col suo appoggio riuscii a destare l’interesse di qualcuno.

Stavo quasi per arrendermi, quando decisi di chiedere anche il parere del migliore amico che avessi nel mondo editoriale: Giuseppe Lippi, il curatore di Urania, con cui collaboravo da un ventennio. Lui ebbe una reazione entusiasta, e mi disse subito: “Ma te la pubblico io! Anzi, visto che per Urania sarebbe un po’ sprecato come progetto, farò il possibile per farla poi pubblicare negli Oscar.”

Non avrei mai sperato tanto: io stesso non avevo mai pensato che la mia destinazione potesse essere Urania: mi pareva che il carattere un po’ intellettuale della mia idea fosse poco adatto alla testata, che tra l’altro pubblicava molto raramente antologie, e ancor più raramente se di autori italiani. Ma se Giuseppe in persona la voleva, non sarei stato io a contraddirlo!

E così partii: tre anni fa ricontattai Cingolani, che mi mise in contatto con i responsabili della comunicazione IIT, che mi fornirono una lista di otto scienziati disposti a collaborare. Francesco Nori per la robotica, Marco De Vivo per la chimica farmacologica, Barbara Mazzolai per la robotica bioispirata, Paolo Decuzzi per la medicina di precisione, Guglielmo Lanzani per l’elettronica indossabile, Alberto Diaspro per la microscopia, Athanassia Athanassiou per la scienza dei materiali, Davide De Pietri Tonelli per la neurobiologia. Una specie di dream team! Non credevo ai miei occhi, la mia idea stava cominciando a prendere forma.

A quel punto cominciarono a profilarsi di fronte a me problemi cui non avevo affatto pensato fino ad allora. In particolare: come avrei scelto gli scrittori, e come avrei distribuito tra loro gli spunti forniti dai vari scienziati? Normalmente, quando si fa un’antologia, si contatta un numero di scrittori maggiore di quello necessario, in modo che, anche tenendo conto di defezioni, ritardi o racconti malriusciti, il numero di testi disponibili sia comunque sufficiente. Nel mio caso, ogni scrittore avrebbe lavorato su uno spunto diverso, in stretto contatto con uno scienziato disponibile a collaborare durante la lavorazione. Non era pensabile, dopo che il ricercatore si era gentilmente prestato al progetto, non utilizzare il suo spunto, ma non era pensabile nemmeno ripetere la procedura più di una volta se il racconto non fosse risultato buono. Era necessario scegliere nomi che dessero ottime garanzie di riuscita.

Mi feci una lista di scrittori che mi sembravano in grado di scrivere dei racconti letterariamente validi e allo stesso tempo di non trascurare il lato scientifico della questione, e cominciai a contattarli, e qui ebbi un’altra sorpresa: diversi autori mi dissero di no, prima o dopo aver visto gli spunti, alcuni perché troppo impegnati, ma altri perché in dubbio di non saper produrre qualcosa di buono a partire da uno spunto così specifico. Tra l’altro si tirarono indietro due donne delle quali apprezzavo moltissimo l’approccio ai temi scientifici, il che non solo era un colpo per la riuscita dell’antologia in generale, ma anche per l’equilibrio di genere dell’insieme.

Mi ero posto anche il problema di come distribuire gli spunti. Se avessi scelto io, avrei rischiato di commettere degli errori, ma se avessi lasciato la scelta agli scrittori avrei rischiato litigi e disaccordi. Provai con questo sistema: chiesi al primo gruppo di sei scrittori coinvolti di scegliere almeno tre spunti, e io avrei attribuito loro uno dei tre scelti. In questo modo avrei mantenuto il controllo, ma nessuno avrebbe potuto dire di aver ricevuto uno spunto sgradito. Funzionò abbastanza bene, ma mi accorsi di una cosa: uno degli spunti non era stato preso in considerazione da nessuno, nemmeno come terza scelta. A quel punto dovetti ritornare su una mia decisione iniziale: quella di non partecipare all’antologia come autore. L’antologista che decide di includere un proprio racconto è sempre sospetto di scarsa imparzialità. E mi è capitato più di una volta di incontrare antologie in cui il racconto meno valido era proprio quello del curatore. È vero però che ci sono notevoli eccezioni (esempio: Mirrorshades curata da Bruce Sterling; sfido chiunque a dire che Mozart in Mirrorshades è un brutto racconto!). Decisi quindi che lo spunto scartato da tutti lo avrei tenuto per me, anche perché mi sembrava invece molto ricco di elementi interessanti.

A questo punto, con diversi autori già impegnati a scrivere, ero ragionevolmente sicuro di riuscire a portare a termine il lavoro. Tornai quindi a farmi sentire da Lippi per farmi dare un termine di consegna e magari firmare un contratto. Ma rimasi delusissimo: Lippi mi disse che, con la situazione che c’era a Urania in quel momento, temeva che se avesse proposto l’acquisto glielo avrebbero bocciato. Meglio che terminassi l’antologia e gli portassi il prodotto finito: solo allora avrebbe avuto qualche speranza di farlo accettare.

Non sapevo che le cose sarebbero ulteriormente peggiorate: di lì a poco Lippi dovette lasciare la curatela di Urania dopo oltre un quarto di secolo (pochi mesi dopo sarebbe morto, lasciando un vuoto incolmabile nella fantascienza italiana). Provai a proporre il libro alla nuova gestione della collana, ma mi fu risposto che non era il momento di pubblicare un’antologia di autori italiani, e che al massimo avrebbero potuto pubblicare in appendice alcuni dei racconti e delle interviste, quando ci fosse stato spazio.

Decisi di non accettare, ma fui molto scoraggiato: chiusa la possibilità di Urania, chi avrebbe potuto pubblicare il libro? Abbandonai il lavoro sull’antologia, trascurando di trovare autori per gli ultimi spunti, di scrivere il mio racconto e di curare l’editing, dedicandomi per un anno intero alla ricerca di qualcuno disposto a far uscire il libro in libreria. Un’esperienza per molti versi istruttiva, ma sicuramente frustrante. Ho continuato a rimbalzare da un editore all’altro, ricevendo ogni volta elogi per l’idea, però accompagnati da un gentile rifiuto: nel piano editoriale della casa editrice il mio libro non si inseriva bene. E ogni editore, per farsi perdonare, me ne presentava un altro: “vai da loro, loro sì che sono quelli giusti per te”. Ogni tanto, questa catena di Sant’Antonio editoriale si interrompeva: incontravo qualcuno che si diceva interessatissimo e proponeva un incontro di persona… per poi scomparire e non rispondere più a e-mail e telefonate. Tutto tempo perso, bisognava cercare ancora.

Ci è voluto un anno per convincermi che non c’era modo di fare uscire il testo in libreria. A quel punto, era urgente trovare una soluzione alternativa: le interviste stavano invecchiando, bisognava pubblicare tutto in un tempo ragionevole. Una volta accettato di far uscire il libro distribuendolo solo online, la scelta era ovvia: Delos Digital era l’editore che poteva garantirmi una buona visibilità e un eccellente supporto tecnico. Fortunatamente Silvio Sosio accettò dubito di pubblicare il progetto, e mi propose di far uscire il libro in occasione di StraniMondi 2019. Mi restavano quindi alcuni mesi di tempo per chiudere l’antologia.

Più facile a dirsi che a farsi. Bisognava tappare un paio di buchi nell’organico con scrittori in grado di scrivere in fretta. Bisognava mettere a posto dettagli come l’introduzione, la quarta di copertina e soprattutto la copertina (per fortuna affidata a un grande nome come Franco Brambilla, grazie Delos!). Bisognava provare a ottenere una prefazione da Roberto Cingolani, che, colmo della sfortuna proprio due mesi prima dall’uscita del libro aveva lasciato la guida dell’IIT, dopo quindici anni, ed era superimpegnato col nuovo lavoro a Leonardo (alla fine riuscii a ottenerla, ma così all’ultimo momento che le prime copie cartacee stampate ne sono prive: diventeranno cimeli da collezionista?).

Ma soprattutto dovevo scrivere il mio racconto, che avevo iniziato cinque volte e cinque volte abbandonato, convinto che l’approccio non fosse quello giusto. Alla fine, spinto dalla disperazione, decisi di adottare un metodo per me del tutto inedito: presi gli incipit di tutti e cinque i tentativi falliti, e cercai di immaginare una trama che li comprendesse tutti. Strano a dirsi, funzionò. Perlomeno, è venuto fuori un racconto che mi pare più interessante rispetto alla mia media, con una trama poco lineare, un mucchio di personaggi e di cambi di tono. Aspetto di sentire il giudizio dei lettori. Sicuramente mi ha fatto un sacco di piacere l’apprezzamento di Guglielmo Lanzani, lo scienziato cui mi sono ispirato, al quale sembra essere piaciuto molto. Meno male!

Ultimo punto spinoso è stato quello del titolo. Come fare a trovarne uno che colpisse l’immaginazione del possibile acquirente, e allo stesso tempo desse un’idea generale del contenuto dell’antologia? Non era facile, dato che ogni racconto è ispirato a un campo completamente diverso della scienza. Dopo essermi arrovellato a lungo, escogitai un titolo che mi sembrava funzionare: Superrisoluzione. Si tratta di un termine preso dall’intervista con Alberto Diaspro sulla microscopia. Mi sembrava potesse suggerire la possibilità di guardare verso i nostri possibili futuri con l’accuratezza data da un microscopio (e ancora non sapevo che Franco Brambilla avrebbe messo degli enormi microscopi in copertina!).

Sono ancora convinto che l’idea potesse funzionare, ma tutti gli autori me la bocciarono senza mezzi termini: un parolone complicato che i lettori non avrebbero capito. Mi venne in soccorso Silvio Sosio, che propose Fanta-Scienza, col trattino. Un titolo che può sembrare banale, ma che in effetti sottolinea il senso dell’operazione: tornare in un certo senso alle origini della fantascienza, parlando di scienza vera. Lo abbiamo scelto e sembra avere funzionato: non dico che abbia suscitato grandi entusiasmi, ma è stato accettato da tutti senza problemi, e anche il senso del trattino sembra essere stato ben compreso.

Durante la complicata, pluriennale trafila che vi ho appena descritto, innumerevoli volte ho provato la tentazione di lasciar perdere e mollare tutto. Se non l’ho fatto è solo perché avevo chiesto ad almeno una ventina di persone di impegnarsi e dedicarci parte del loro tempo, e non sarebbe stato giusto sprecarlo così. Ora che sono arrivato in fondo, invece, sono contentissimo di non aver gettato la spugna. Tanto per cominciare, sono soddisfatto del risultato: il libro terminato non è molto lontano da quello che mi ero immaginato all’inizio del percorso.

Ma soprattutto, sembra destare un interesse e riscuotere un credito molto superiore a quello che mi aspettavo. Nelle sue prime settimane di vita ha raccolto gli elogi di Luca De Biase e Bruce Sterling, due persone per cui nutro un grandissimo rispetto. E sta raccogliendo un discreto interesse da parte della stampa. È troppo presto per valutare quanto riuscirà a vendere, ma mi sembra che si stia facendo notare, ben più di quanto era lecito immaginare. Speriamo che continui così.

Addirittura mi è già stato chiesto più volte se ci sarà un seguito, un Fanta-Scienza 2, o magari 3. Se me lo aveste chiesto un anno fa, avrei risposto: mai più! Ora invece sto cominciando a pensarci. Per me potrebbe davvero diventare un appuntamento annuale, magari con una formula un po’ diversa. Dipenderà molto dal successo del libro, e dalla collaborazione che mi permetterà di ottenere nel mondo scientifico e in quello editoriale.

In ogni caso non posso che ringraziare tutti coloro che, in tanti momenti, mi hanno incoraggiato e dato una mano. Ne è valsa davvero la pena!

Ora, se non l’avete ancora fatto, leggete il libro, o perlomeno compratelo!

Share Button

Archeoacustica


Oggi su Nòva 24 apparirà un mio articolo in cui intervisto il professor Carl Haber, inventore di una tecnologia per estrarre l’audio con un procedimento ottico da antiche registrazioni, realizzate con macchinari pionieristici su supporti così fragili che rischierebbero di rovinarsi se venissero ascoltati anche una sola volta col metodo tradizionale.
Mentre ascoltavo il professore parlare di come realizza scansioni dettagliatissime delle superfici dei supporti fonografici per poi usare un algoritmo in grado di “ascoltare” i suoni che contengono senza toccarli, mi è venuto in mente un racconto di fantascienza. Lo ha scritto Rudy Rucker nel 1981, si intitola Buzz ed è apparso in Italia nel 1996 col titolo di Ronzio, all’interno dell’antologia Cuori Elettrici curata da Daniele Brolli. In Ronzio degli scienziati ritengono che sulla superficie di un antico vaso egiziano possano essere rimasti incisi dei suoni, grazie al fatto che il coltello del vasaio ha trasformato le vibrazioni dell’aria in solchi che poi si sono solidificati. Costruiscono un macchinario per riascoltare quei suoni, ma nel farlo finiscono col far risuonare un antico incantesimo che ha effetti inaspettati.
Sono rimasto a lungo indeciso se fosse il caso di fare una domanda così strana a un serio professore di fisica, ma alla fine mi sono deciso, e gli ho chiesto se fosse davvero possibile che dei suoni dell’antichità fossero rimasti incisi accidentalmente nel modo descritto dal racconto, e in tal caso se la sua tecnica fosse in grado di recuperarli. Mi ha lasciato di stucco dicendomi: “Questa domanda mi è stata posta centinaia di volte”. Dopodiché mi ha spiegato che si è molto discusso di questa possibilità, che viene definita archeoacustica, ma secondo lui non è molto plausibile che possa realizzarsi in pratica. Haber ha studiato approfonditamente gli esperimenti dei primi pionieri della registrazione audio, e si è reso conto che per l’incisione di suoni intelligibili hanno dovuto affrontare grandissimi sforzi e ricorrere a espedienti ingegnosi. La probabilità che lo stesso risultato possa essere ottenuto per caso, senza la volontà di ottenerlo, a suo avviso è davvero bassa. “Però vorrei specificare una cosa”, ha aggiunto. “Se davvero dei suoni fossero rimasti incisi in quel modo, la mia tecnologia sarebbe perfettamente in grado di tirarli fuori”.
Quindi l’idea di poter ascoltare suoni di epoche precedenti l’invenzione del fonografo e del registratore è molto probabilmente solo un sogno. Un sogno peraltro ricorrente: proprio in questi giorni leggevo, nell’introduzione all’interessantissimo libro Alla ricerca del suono perfetto – Una storia della musica registrata di Greg Milner, che lo stesso Guglielmo Marconi faceva fantasticherie del genere. Avendo osservato che un suono non si interrompe mai davvero, ma si smorza diminuendo di intensità per diventare inaudibile, aveva pensato che, con apparecchiature sufficientemente sensibili, si sarebbero potuti recuperare anche i suoni di epoche molto lontane. In particolare, avrebbe voluto poter ascoltare il Discorso della Montagna come l’aveva pronunciato lo stesso Gesù.
Marconi non conosceva l’odierna teoria dell’informazione, e non si rendeva conto che qualunque suono è destinato a perdersi nel rumore di fondo fino a non essere più in alcun modo decifrabile. Ma quello di far rivivere i rumori del passato, rendendolo in qualche modo ancora vivo e presente, è troppo affascinante per perdere del tutto la speranza. Chissà che un giorno qualche complesso entanglement quantistico non ci consenta di percepire le vibrazioni di atomi di un lontano passato, come inserendo un microfono in un’altra epoca. E chissà cosa potremmo scoprire ascoltando.

Share Button

I bit della memoria

Anche se l’ipotesi che la mente sia un “software” è ancora molto controversa, viene comunque spontaneo paragonare il cervello a un computer, che usa i vari organi del corpo come periferiche ed elabora i dati che da essi riceve. Tuttavia, anche se questa idea è molto ben radicata, in realtà siamo parecchio lontani dall’aver capito in che modo il cervello opera sui dati. Se fosse simile a un computer, dovrebbe avere l’equivalente di una RAM per la memoria a breve trmine, e di un disco rigido (o SSD, se vogliamo fare i moderni) per quella a lungo termine. finora non sapevamo quali fossero gli equivalenti cerebrali di questi componenti; non sapevamo, cioè, come il cervello “fissa” i ricordi.  Gli esperimenti passati portano a ritenere che il formarsi di un ricordo equivalga al rafforzarsi di una determinata connessione tra alcuni neuroni del cervello, che li porta a scambiarsi impulsi elettrici secondo uno schema fisso. Queste connessioni, tuttavia, decadono in un tempo abbastanza breve, mentre i nostri ricordi possono rimanere per una vita intera. Ci deve essere quindi un meccanismo con cui il cervello “salva” queste connessioni per poi poterle ricreare quando servono.
Ora un gruppo di scienziati ha ipotizzato un meccanismo con cui questo processo può avvenire. Si tratta di una proteina, indicata col simbolo CaMKII, che viene prodotta durante il processo di creazione delle connessioni sinaptiche e va poi a legarsi con l’interno dei neuroni. In tale proteina rimane memorizzata la forma della connessione che l’ha generata.
La cosa più interessante è che le informazioni che vengono salvate nella proteina sono in forma binaria, come quelle dei computer: la proteina è di forma esagonale, e a ogni vertice può esserci o meno un gruppo fosfato. La presenza o assenza di questi gruppi equivale a un bit di informazione (0 o 1). La differenza rispetto ai computer è che, essendo gli elementi di proteina esagonali, un “byte” è composto da 6 bit invece che da 8.
Naturalmente il fatto che abbiamo scoperto la natura di questi bir non significa che siamo pronti a leggere i ricordi del cervello… ma il traguardo si è avvicinato un po’.
Maggiori informazioni sull’argomento nell’articolo che ho pubblicato su Nòva 24 di domenica scorsa, che potete leggere facendo clic qui sotto:

Share Button

Computer quantici

La produzione di un chip quantico a 16 bit D-Wave

Dal nome sembrerebbero un gadget tratto da qualche gioco di ruolo di fantascienza come Eclipse Phase. Ma in realtà i computer quantici sono qualcosa che potrebbe esistere presto (o forse già esiste) e che potrebbe far fare all’informatica un salto in avanti di portata incalcolabile.
Cos’è un computer quantico? Sappiamo tutti che, per manipolare l’informazione, i computer riducono tutto in bit, cioè cifre binarie che possono assumere il valore di 0 o 1. Il processore del computer con cui state leggendo questo post possiede un registro in cui sono salvati i bit su cui sta lavorando (probabilmente 32 o 64 bit), e a ogni ciclo di funzionamento compie delle operazioni matematiche su questi bit cambiandone il valore.
I bit in questione sono rappresentati dallo stato di componenti all’interno del processore. In un computer normale si tratta di componenti macroscopiche (per modo di dire, perché nei chip odierni ci vuole un microscopio molto potente per vederle; ma comunque si tratta ancora di oggetti formati da un bel numero di atomi). In un computer quantico, invece, per rappresentare queste unità minime di informazione si utilizzano particelle subatomiche. Per esempio, si può decidere che se o spin (momento angolare) di un elettrone è in un verso, vale 0, altrimenti vale 1.
I bit codificati in questo modo vengono chiamati qbit. Che ci si guadagna? Il punto è che, quando si lavora in questa scala di grandezze, entra in gioco la meccanica quantistica, che ci dice che lo stato di una particella non è mai definito, ma è una sovrapposizione di tutti gli stati possibili, a meno che un osservatore non lo vada a verificare. In pratica lo spin del nostro elettrone, mentre non lo guardiamo, non va né del tutto in un senso né nell’altro, ma è un mix delle due possibilità. Questo, che a prima vista potrebbe sembrare un problema, può essere utilizzato a nostro vantaggio per certi tipi di calcoli. Per esempio, se  vogliamo risolvere un problema che richiede di verificare il valore di una funzione per n valori diversi e poi farne la media, con un computer classico dobbiamo eseguire il calcolo n volte. Se invece usiamo un computer quantico i cui qbit possono assumere simultaneamente n valori diversi, è possibile eseguire il calcolo una sola volta e ottenere un risultato che, statisticamente, sarà pari alla media di tutti i risultati, risparmiando un gran numero di cicli di calcolo. Al crescere del numero dei qbit, la quantità dei cicli di calcolo risparmiati cresce esponenzialmente, tanto che un computer quantico con varie centinaia di qbit a disposizione potrebbe facilmente superare la potenza di tutti i computer oggi disponibili per l’umanità.
Ovviamente, una cosa è enunciare il principio, un’altra è metterlo in pratica. “Scrivere” un dato usando singole particelle subatomiche richiede componenti estremamente sofisticate, che stiamo cominciando a malapena a concepire. Inoltre, perché sia possibile lavorare con i qbit, occorre sfruttare un’altra proprietà della meccanica quantistica, che è l’entanglement. In pratica, se una serie di particelle viene prodotta da un unico processo quantistico, e poi andiamo a misurare una proprietà di una di esse (che, come abbiamo visto prima, è indefinita fino al momento dela misura), faremo diventare definita la proprietà non solo della particella misurata, ma di tutte le particelle coinvolte. Questo ci aiuta a misurare in una sola volta lo stato di tutti i qbit, ma nondimeno, al crescere del loro numero, produrre insiemi di qbit legati dall’entanglement diventa molto complicato. Infine, perché tutto questo abbia un senso occorre che non ci siano influenze dal mondo esterno: qualunque interfernza causa la decoerenza, cioè interrompe l’entanglement e rende impossibile leggere il valore dei qbit. Per evitare la decoerenza occorre prendere misure drastiche, come lavorare vicino allo zero assoluto.
Il D-Wave One, primo computer quantico commerciale

Nonostante tutto questo, esiste già chi produce un computer quantico: l’azienda canadese D-Wave ha recentemente venduto alla Lockeed-Martin per dieci milioni di dollari un primo esemplare di computer quantico, il D-Wave One. C’è però chi è scettico: un esperto del settore come Scott Aaronson ha dichiarato più volte che al momento attuale non esiste una tecnologia in grado di fare ciò che D-Wave dichiara (anche se ultimamente si è dichiarato disposto a rivedere il proprio giudizio di fronte a prove più approfondite).
Tuttavia c’è chi è ancora più scettico, e ritiene che i computer quantici siano una bufala, “Il moto perpetuo del 21esimo secolo”, qualcosa che è fisicamente impossibile costruire. Secondo costoro, al crescere del numero dei qbit cresce la difficoltà di leggerne i valori isolando il segnale dal rumore, e si raggiungerà ben presto un limite massimo oltre il quale i computer quantici non potranno andare. Un limite che non permetterà di usarli per scopi effettivamente utili. Aaronson non è d’accordo, e sul suo blog ha lanciato una sfida: pagherà 100.000  $ a chi dimostrerà in modo convincente che esiste un limite fisico, e non solo tecnologico, alla costruzione di computer quantici di potenza a piacere.
È una sfida che ha un sapore filosofico. Non si tratta solo di risolvere un problema tecnico, ma di andare a vedere se il mondo del tutto controintuitivo dei quanti, in cui non c’è nulla di definito e ogni cosa assume più stati contemporaneamente, è confinato nel regno dell’infinitamente piccolo, o se invece noi possiamo sfruttare le sue proprietà nel mondo macroscopico per effettuare un calcolo.  Finora chi si bocciava le teorie quantistiche come impossibili o assurde ha sempre avuto torto, vedremo come andrà questa volta.
Su questo tema ho scritto un articolo pubblicato sulla prima pagina di Nòva 24 di domenica 5 marzo. Potete leggerlo facendo clic quì sotto:

Share Button

A pesca di neutrini

Una sfera di vetro, resistente alla pressione e contenente una trentina di fotomoltiplicatori, viene calata in mare (proprietà consorzio KM3NeT)

Mariastella Gelmini non lo sapeva, ma i neutrini sono particelle prive di carica elettrica e quasi prive di massa, che viaggiano nello spazio in linea retta senza farsi deviare da nulla e attraversano un pianeta come la Terra come se non esistesse neppure. Per questo motivo i neutrini sono un’ottima fonte di informazione su quello che succede in zone remote dell’Universo, dato che nulla li ferma o li sposta. Il problema è che particelle del genere sono anche molto difficili da individuare, dato che attraversano qualsiasi cosa come se fossero fantasmi. Un osservatorio per neutrini, quindi, funziona in modo molto particolare. Per cominciare, invece che guardare verso il cielo, guarda verso la Terra: in questo modo non viene disturbato da particelle di altro genere, mentre “vede” comunque i neutrini che attraversano facilmente il pianeta. In secondo luogo, l’osservatorio deve essere circondato da grandi quantità di materia. In questo modo, i neutrini che l’attraversano lasciano ogni tanto una debole traccia, un lampo di radiazioni che sensori sufficientemente acuti possono catturare e interpretare. E’ per questo che l’osservatorio del Gran Sasso sta sotto una montagna, e l’osservatorio Ice Cube sotto il ghiaccio dell’Antartide. Il prossimo osservatorio, invece, verrà costruito sul fondo del Mediterraneo, circondato non da roccia o ghiaccio, da dall’acqua.
Se volete saperne di più, leggete l’articolo che ho scritto in proposito su Nòva 24 di oggi, che trovate in edicola allegato a Il Sole 24 Ore, oppure facendo clic su:

Share Button

Per difendersi dai cigni neri


Dopo l’uscita del libro di Nassim Nicholas Taleb, il cigno nero è diventato simbolo dell’imprevedibilità. Secondo Taleb, i disastri economici (ma non solo quelli) derivano dal fatto che ci fidiamo troppo della nostra capacitàdi prevedere il futuro mediante modelli. Quando il modello all’improvviso si distacca dalla realtà, siamo del tutto indifesi.
C’è un’azienda italiana, Ontonix, che si occupa di valutare la vulnerabilità delle aziende, valutandone la complessità e gli effetti di possibili variazioni impreviste sul suo stato di salute. Per farlo non si serve di modelli, ma di una valutazione di tipo topologico che misura le mutue influenze (anche non evidenti) delle parti del sistema-azienda tra loro. E non solo di un’azienda: una branca di Ontonix, Ontomed, si occupa invece di valutare il rischio di crisi di pazienti in rianimazione!
Ho scritto un articolo in proposito (non lungo quanto avrei voluto) su Nòva 24. Potrete leggerlo facendo clic qui sotto:

Share Button

Energia dall'acqua

Che succede quando l’acqua di un fiume si mescola con quella del mare? I due liquidi si mescolano e si ottiene dell’acqua con una salinità intermedia. Si tratta di un cosiddetto fenomeno irreversibile (cioè che avviene spontaneamente in una sola direzione: potete aspettare un’eternità, ma non vi succederà mai di vedere acqua dolce separarsi spontaneamente dal mare). In natura, quando accade un fenomeno di questo tipo, l’entropia del sistema aumenta. Se l’entropia aumenta, significa che il sistema è sceso a un livello di energia più basso. L’energia che manca, normalmente, si dissipa in calore. Ma, utilizzando qualche accorgimento tecnologico, è invece possibile pensare di sfruttare questa energia, costruendo centrali elettriché là dove fiumi si gettano nel mare. Per saperne di più, leggete il mio articolo in edicola oggi su Nòva 24, facendo clic qui sotto:(Il titolo che è stato dato all’articolo non corrisponde del tutto al contenuto, dato che l’osmosi riguarda il “vecchio” metodo per estrarre energia dal gradiente di salinità, non quello nuovo proposto da vari ricercatori italiani.)

Nel 2009 avevo già scritto per Wired un altro breve articolo sull’argomento.

Share Button