Risparmio energetico con i dacenter immersi nell’Oceano

Vinci tutto supernealotto e giochi Sisal

Risparmio energetico con i dacenter immersi nell'Oceano
Risparmio energetico con i dacenter immersi nell'Oceano
Condividi l'Articolo
RSS
Twitter
Visit Us
Follow Me
INSTAGRAM

Perché i computer consumano così tanta energia? Gran parte dell’energia consumata dai calcolatori si disperde in forma di calore e ne occorre altra per raffreddarli. Per renderli più efficienti, molti ricercatori hanno iniziato ad applicare al loro funzionamento le leggi della termodinamica di non equilibrio con risultati interessanti e inattesi.

Microsoft sta conducendo un’interessante serie di esperimenti sull’hardware.

La società sta trasportando un container modificato pieno zeppo di server per immergerlo nell’oceano. L’ultimo round è in Scozia, nei pressi delle isole Orcadi, e riguarda un totale di 864 server Microsoft standard per centri di elaborazione dati. Qualcuno messo in dubbio la sanità mentale della società che mise Seattle sulla mappa dell’high-tech, ma parlando seriamente – perché Microsoft lo sta facendo?

I motivi sono vari, ma uno dei più importanti è che è molto più economico tenere al fresco i server quando sono in fondo al mare.

Raffreddare i calcolatori non è una spesa trascurabile. Le stime precise variano, ma attualmente circa il 5 per cento di tutto il consumo di energia negli Stati Uniti è dedicato al funzionamento dei computer, un costo enorme per l’economia nel suo complesso. Inoltre, tutta l’energia utilizzata da quei computer viene infine convertita in calore, traducendosi in un secondo costo: quello per impedire ai computer di fondere.

Questi problemi non sorgono solo nei computer digitali artificiali. Ci sono molti computer in natura e anch’essi richiedono enormi quantità di energia. Per fare un esempio piuttosto calzante, il cervello umano è un computer, che utilizza circa il 10-20 percento di tutte le calorie consumate da un essere umano.

Pensateci: i nostri antenati della savana africana hanno dovuto procurarsi il 20 percento di cibo in più ogni giorno solo per impedire a quell’ingrato ammasso di gelatina rosa imperiosamente appollaiato sulle loro spalle di avere un attacco isterico. Quel 20 percento in più di fabbisogno di cibo è una penalizzazione enorme per il successo riproduttivo dei nostri antenati. Questa penalizzazione è il motivo per cui l’intelligenza è così rara nella storia dell’evoluzione? Nessuno lo sa e finora nessuno ha mai avuto nemmeno gli strumenti matematici per porre la domanda.

Technician walking through server room of data center © Juice Images / AGF
Technician walking through server room of data center © Juice Images / AGF

Ci sono altri computer biologici oltre al cervello, e anch’essi consumano grandi quantità di energia. Per fare un esempio, molti sistemi cellulari possono essere considerati dei computer.

In effetti, il confronto dei costi termodinamici nei computer artificiali e cellulari può essere estremamente umiliante per i moderni ingegneri informatici. Per esempio, una quota importante del budget energetico di una cellula va alla conversione dell’RNA in sequenze di amminoacidi (cioè proteine), nel ribosoma della cellulare, ma l’efficienza termodinamica di questo calcolo – la quantità di energia richiesta da un ribosoma per operazione elementare – è superiore di vari ordini di grandezza  all’efficienza termodinamica dei nostri attuali computer artificiali.

Ci sono “trucchi” che le cellule usano che potremmo sfruttare nei nostri computer artificiali? Tornando all’esempio biologico precedente, ci sono trucchi usati dai cervelli umani per fare i loro calcoli che possiamo sfruttare nei nostri computer artificiali?

Più in generale e in primo luogo, perché i computer usano così tanta energia? Quali sono le leggi fisiche fondamentali che governano la relazione tra la computazione eseguita da un sistema e la quantità di energia che richiede? Possiamo rendere i nostri computer più efficienti dal punto di vista energetico riprogettando il modo in cui implementano i loro algoritmi?

Questi sono alcuni dei problemi con cui abbiamo a che fare i miei collaboratori e io nell’ambito di un progetto di ricerca in corso al Santa Fe Institute. Non siamo i primi a indagare su questi problemi; sono stati affrontati, per oltre un secolo e mezzo, usando un ragionamento semi-formale basato su quella che era essenzialmente un’analisi approssimativa, invece che su rigorosi argomentazioni matematiche, poiché la matematica pertinente non era ancora pienamente matura.

Questo lavoro preliminare ha portato a molte intuizioni importanti, in particolare il lavoro tra la metà e la fine del XX secolo di Rolf Landauer, Charles Bennett e altri.

Tuttavia, questo lavoro pionieristico era anche limitato dal fatto che cercava di applicare la fisica statistica di equilibrio all’analisi della termodinamica dei computer. Il problema è che un sistema in equilibrio è, per definizione, uno di quelli il cui stato non cambia mai. Quindi,  qualsiasi cosa siano, i computer sono sicuramente sistemi non in equilibrio. In realtà, sono spesso sistemi molto lontani dall’equilibrio.

Yellow Glowing Circuit Board Close-Up (matejmo/iStock)
Yellow Glowing Circuit Board Close-Up (matejmo/iStock)

Fortunatamente, negli ultimi decenni ci sono state alcune importanti scoperte, completamente indipendenti da questo primo lavoro, nel campo della fisica statistica di non equilibrio (strettamente correlata a un campo chiamato “termodinamica stocastica”). Queste scoperte ci permettono di analizzare tutti i tipi di problemi che riguardano il modo in cui il calore, l’energia e le informazioni si trasformano in sistemi di non equilibrio.

Queste analisi hanno fornito alcune previsioni sorprendenti. Per esempio, ora possiamo calcolare la probabilità (non nulla) che alle nanoscale un dato sistema, in un dato intervallo di tempo, violi la seconda legge della termodinamica, riducendo la sua entropia. (Ora abbiamo capito che la seconda legge non dice che l’entropia di un sistema chiuso non può diminuire, solo che la sua entropia attesa non può diminuire.) Qui non ci sono le controversie che emergevano dal ragionamento semi-formale; invece, ci sono molte centinaia di articoli sottoposti a revisione tra pari nelle più importanti riviste, una gran parte dei quali implica conferme sperimentali delle previsioni teoriche.

Ora che abbiamo gli strumenti giusti, possiamo rivisitare l’intera argomentazione della termodinamica del calcolo in modo pienamente formale. Questo è già stato fatto per la cancellazione dei bit, l’argomento che interessava Landauer e altri, e ora abbiamo una comprensione formale dei costi termodinamici della cancellazione dei bit (che si rivela sorprendentemente sottile).

Tuttavia, l’informatica si estende assai oltre il conteggio del numero di cancellazioni di bit in un dato calcolo. Grazie alle scoperte della fisica statistica di non equilibrio, ora possiamo anche studiare il resto dell’informatica da una prospettiva termodinamica. Per esempio, passando dai bit ai circuiti, i miei collaboratori e io ora abbiamo un’analisi dettagliata dei costi termodinamici dei “circuiti rettilinei”. Sorprendentemente, questa analisi ha portato a nuove estensioni della teoria dell’informazione. Inoltre, contrariamente al tipo di analisi in cui Landauer è stato un pioniere, questa dei costi termodinamici dei circuiti è esatta, non è solo un limite inferiore.

L’informatica convenzionale è centrata su compromessi tra le risorse di memoria e il numero di fasi temporali necessarie per eseguire una determinata computazione. Alla luce di quanto sopra, sembra che ci potrebbero essere molti più compromessi termodinamici nell’esecuzione di un calcolo rispetto a quanto era stato stimato nell’informatica convenzionale, compromessi che coinvolgono costi termodinamici oltre che costi delle risorse di memoria e numero di fasi temporali. Questi compromessi riguarderebbero sia computer artificiali sia quelli biologici.

Chiaramente c’è tantissimo da fare per sviluppare questa moderna “termodinamica del calcolo”.

State all’erta per un libro in uscita per SFI Press, una raccolta di articoli che toccano molti temi sopra menzionati. Inoltre, per promuovere la ricerca su questo argomento, abbiamo costruito un wiki, combinando elenchi di documenti, siti web, pagine di eventi e così via. Incoraggiamo le persone a visitarlo, iscriversi e iniziare a migliorarlo; più gli scienziati sono coinvolti, in diversi campi, meglio è!

David Wolpert è resident faculty al Santa Fe Institute, in New Mexico, negli Stati Uniti, dove usa la fisica statistica di non equilibrio per analizzare la termodinamica di sistemi di calcolo.

(L’originale di questo articolo è stato pubblicato su “Scientific American” il 4 ottobre 2018. Traduzione ed editing a cura di Le Scienze. Riproduzione autorizzata, tutti i diritti riservati.)

Condividi l'Articolo
RSS
Twitter
Visit Us
Follow Me
INSTAGRAM

Ricerca in Scienza @ Magia

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Inviami gli Articoli in Email:

Lascia il primo commento

Lascia un commento

L'indirizzo email non sarà pubblicato.


*


Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.