paint-brush
Ottimizzazione dell'efficienza del data center: un'analisi approfondita delle tecniche di freecoolingdi@egorkaritskii
99,982 letture
99,982 letture

Ottimizzazione dell'efficienza del data center: un'analisi approfondita delle tecniche di freecooling

di Egor Karitskii10m2024/05/14
Read on Terminal Reader
Read this story w/o Javascript

Troppo lungo; Leggere

Scopri il potenziale trasformativo della tecnologia di raffreddamento gratuito nei data center, esaminandone i vantaggi, le sfide e l'impatto su efficienza e affidabilità. Esplora come questa soluzione ecologica sta rivoluzionando le strategie di raffreddamento e plasmando il futuro delle operazioni dei data center.

Companies Mentioned

Mention Thumbnail
Mention Thumbnail

Coin Mentioned

Mention Thumbnail
featured image - Ottimizzazione dell'efficienza del data center: un'analisi approfondita delle tecniche di freecooling
Egor Karitskii HackerNoon profile picture
0-item
1-item


Nell'articolo precedente , abbiamo discusso della rapida espansione dell'infrastruttura del data center e dell'aumento del consumo di elettricità che ne è derivato. Poiché i server convertono l'elettricità in calore durante il funzionamento, la gestione delle alte temperature e il raffreddamento sia delle strutture del data center che delle apparecchiature diventano un problema numero 1 per i team DC.


Mentre i metodi di raffreddamento tradizionali, tra cui condizionatori d'aria e refrigeratori, raffreddano efficacemente i locali e i server dei data center, il loro costo rimane uno svantaggio significativo. Il raffreddamento gratuito, a differenza dei metodi tradizionali, non richiede investimenti sostanziali, ma offre lo stesso livello di efficienza e affidabilità. In questo articolo, farò una panoramica dettagliata della tecnologia di raffreddamento gratuito, evidenziandone i vantaggi, i limiti e i requisiti per un'implementazione di successo.


Fisica del raffreddamento libero

Per comprendere la fisica alla base del raffreddamento gratuito, dovremo rivisitare la formula dell'energia termica:


Q = mcΔT


Qui, 'Q' rappresenta la quantità di calore guadagnato o perso, 'm' indica la massa del campione (nel nostro caso, la massa d'aria nel centro dati), 'c' indica la capacità termica specifica dell'aria e ΔT indica la differenza di temperatura.


In un data center, la fonte di calore primaria è la CPU. In genere, ci sono da 2 a 4 CPU, ciascuna delle quali funziona a circa 200 watt. Come discusso in precedenza, tutta l'energia elettrica consumata dalle CPU viene convertita in calore. Pertanto, con 2 CPU, ad esempio, generiamo 400 watt di calore che devono essere dissipati. Ora il nostro obiettivo è determinare la quantità di aria richiesta per questo scopo.


Il parametro ΔT, o differenziale di temperatura, indica che più bassa è la temperatura dell'aria esterna, minore è la massa d'aria necessaria per raffreddare le CPU. Ad esempio, se la temperatura dell'aria in ingresso è 0°C e quella in uscita è 35°C, ΔT sarebbe solo 35, il che indica un fabbisogno di massa d'aria piuttosto inferiore. Tuttavia, durante la stagione estiva, il raffreddamento diventa più impegnativo a causa dell'aumento delle temperature ambiente. Più alta è la temperatura esterna, maggiore sarà la quantità di aria necessaria per raffreddare i server.



Limitazioni di temperatura dei componenti di rete e server

Sebbene il raffreddamento gratuito possa essere efficiente per climi moderati e freddi, presenta comunque delle limitazioni dovute ai vincoli di temperatura sui componenti del server. I componenti critici nelle apparecchiature IT e di rete, come processori, RAM, HDD, SSD e unità NVMe, hanno requisiti di temperatura operativa:


  • Processori: max 89°C
  • RAM: max 75°C
  • HDD: max 50°C
  • SSD e unità NVMe: max 47-48°C


Queste limitazioni hanno un impatto diretto sull'idoneità delle temperature dell'aria esterna per il raffreddamento. Il raffreddamento gratuito non sarebbe fattibile nelle regioni in cui le temperature esterne superano queste soglie o addirittura si avvicinano ad esse, in quanto potrebbe danneggiare il sistema a causa del surriscaldamento. Limitazioni regionali

Come abbiamo già spiegato, le temperature esterne devono rimanere costantemente inferiori alle temperature operative massime delle apparecchiature IT affinché il raffreddamento gratuito sia efficace. Ciò richiede un'attenta considerazione delle condizioni climatiche della sede del DC. Le organizzazioni devono analizzare le previsioni meteorologiche a lungo termine per garantire che le temperature non superino le soglie richieste, anche in giorni o ore specifici. Inoltre, considerando la lunga durata dei data center (in genere 10-15 anni), anche gli effetti del riscaldamento globale dovrebbero essere presi in considerazione nelle decisioni sulla sede.



Requisiti di architettura del nodo server

Nel contesto della fisica, ottenere un raffreddamento efficiente nei server si basa sulla garanzia di un ampio flusso d'aria attraverso il sistema. L'architettura del server gioca un ruolo importante in questo processo.


Un esempio di architettura del server con fori di ventilazione che facilitano il flusso d'aria necessario e consentono un efficace raffreddamento gratuito


Al contrario, i server privi di caratteristiche di progettazione appropriate, come perforazioni o aperture, possono ostacolare il flusso d'aria, compromettendo potenzialmente l'efficienza complessiva del meccanismo di raffreddamento gratuito.


Controllo dell'umidità

Il livello di umidità è un altro aspetto critico quando si tratta di raffreddamento gratuito. Poiché non abbiamo il controllo sulle condizioni di umidità esterna, sorgono due domande pertinenti: in primo luogo, affrontare livelli di umidità prossimi o superiori al 100% all'interno del data center (DC); in secondo luogo, affrontare scenari di umidità dell'aria molto bassa, come durante una gelida giornata di febbraio con una temperatura esterna di -30 °C e un'umidità relativa che varia dal 2% al 5%. Esaminiamo sistematicamente queste situazioni.


In condizioni di elevata umidità, c'è una preoccupazione comune riguardo al potenziale verificarsi di condensa e ai suoi effetti negativi sulla funzionalità delle apparecchiature. Contrariamente a questa preoccupazione, all'interno delle zone di raffreddamento del DC, dove avviene il processo di raffreddamento, la condensa è preclusa. Ciò è dovuto al principio secondo cui la condensa si verifica quando l'aria calda e umida entra in contatto con superfici più fredde. Tuttavia, all'interno del sistema di raffreddamento libero del DC, nessun elemento è più freddo dell'aria circostante. Di conseguenza, la condensa è intrinsecamente impedita, eliminando la necessità di misure proattive.


Al contrario, quando si ha a che fare con bassa umidità, l'apprensione si sposta verso la generazione di elettricità statica, che rappresenta una minaccia per la stabilità dell'apparecchiatura. Questo problema non è associato alla condensa, ma richiede una risoluzione distintiva. La mitigazione comporta procedure di messa a terra e l'applicazione di un rivestimento specializzato per pavimenti. Queste misure sono in linea con i metodi consolidati per la salvaguardia delle apparecchiature interne dall'elettricità statica. Mettendo a terra elementi di costruzione, rack e apparecchiature IT, una carica statica viene dissipata in modo innocuo a terra, preservando l'integrità dell'apparecchiatura.


Nel clima naturale, i casi di umidità estremamente alta o bassa sono rari. Eccezioni degne di nota includono eventi rari come un temporale che raggiunge il 100% di umidità a luglio o una forte gelata che causa un'umidità molto bassa. Tuttavia, per la maggior parte del tempo i livelli di umidità rimangono ben entro intervalli accettabili che non pongono alcun danno all'attrezzatura, anche in assenza di interventi attivi.


Quantità e velocità dell'aria

Come abbiamo già discusso, per facilitare un raffreddamento efficace abbiamo bisogno di un volume sostanziale di aria esterna. Contemporaneamente, emerge un requisito apparentemente controintuitivo: mantenere un flusso d'aria basso all'interno dell'edificio. Questo apparente paradosso è radicato nelle sfide poste dalle correnti d'aria ad alta velocità che circolano al suo interno.


Per semplificare, immagina un'elevata velocità dell'aria come un flusso robusto da un tubo, che crea vortici e turbolenze attorno all'apparecchiatura IT. Questa turbolenza porta potenzialmente a movimenti irregolari dell'aria e surriscaldamento localizzato. Per risolvere questo problema, puntiamo strategicamente a una bassa velocità complessiva dell'aria di 1-2 metri al secondo in tutto lo spazio.


Mantenere questa velocità controllata dell'aria ci consente di eliminare la turbolenza. Una velocità maggiore rischierebbe irregolarità nel movimento dell'aria. Aderendo all'intervallo di 1-2 metri al secondo, favoriamo un flusso d'aria fluido e uniforme, evitando il surriscaldamento localizzato. Questo delicato equilibrio garantisce un raffreddamento ottimale delle apparecchiature IT evitando le insidie associate alle correnti d'aria ad alta velocità.


Come si può vedere, l'approccio free cooling ruota attorno all'uso efficiente dell'aria esterna, dando priorità a una bassa velocità dell'aria interna controllata. Questa strategia deliberata aiuta a mantenere un flusso d'aria laminare e uniforme, assicurando l'efficacia del raffreddamento delle apparecchiature IT.


Concetto di costruzione

Nel paradigma del raffreddamento gratuito, i condotti dell'aria tradizionali non vengono impiegati all'interno della struttura dell'edificio. A differenza delle configurazioni convenzionali con condotti dell'aria designati in pareti, soffitti o aree specifiche, i centri di elaborazione dati adottano un approccio non convenzionale. L'edificio stesso è concepito come un condotto dell'aria, rendendo obsolete le unità di condizionamento tradizionali. La scala di questi condotti dell'aria li trasforma in componenti integrali di stanze e piani.


Una rappresentazione schematica del progetto dell'edificio con raffreddamento gratuito


Il processo di flusso d'aria inizia quando l'aria esterna entra nell'edificio, passando attraverso due tipi di filtri: filtri grossolani e filtri fini. Una volta che l'aria subisce il processo di pulizia, viene spinta dai ventilatori in ampi volumi dell'edificio, approssimativamente equivalenti a quattro piani di altezza. Questo volume sostanziale ha il suo scopo: rallentare il flusso d'aria, riducendone la velocità all'intervallo richiesto di 1-2 metri al secondo. Successivamente, l'aria scende nella sala macchine.


Dopo aver attraversato la sala macchine, l'aria continua il suo viaggio attraverso i rack IT, procedendo nel corridoio caldo. Da lì, entra nel collettore dell'aria calda prima di essere espulsa all'esterno tramite ventole di scarico. Questo percorso di flusso d'aria strutturato assicura un processo di raffreddamento efficiente mantenendo al contempo una velocità dell'aria controllata.


Velocità e volume dell'aria

La scelta progettuale deliberata di utilizzare volumi edilizi espansivi ha un duplice scopo. Innanzitutto, consente una graduale riduzione della velocità dell'aria, assicurando che il flusso d'aria raggiunga la velocità desiderata di 1-2 metri al secondo. Questa velocità dell'aria controllata è essenziale per prevenire la turbolenza e mantenere un flusso laminare, particolarmente importante quando l'aria avanza attraverso apparecchiature IT sensibili. In secondo luogo, il volume significativo ospita il volume d'aria necessario per dissipare in modo efficiente il calore generato. L'interazione sincronizzata di velocità dell'aria e volume contribuisce al successo complessivo del sistema.


Pressione differenziale come unico fattore di gestione

In una configurazione di raffreddamento libero, non abbiamo controllo sulla temperatura dell'aria esterna, il che porta a variazioni nella temperatura dell'aria in ingresso nel Data Center (DC). Nonostante ciò, è essenziale stimare il flusso d'aria richiesto per il raffreddamento delle apparecchiature. Per risolvere questo problema, ci affidiamo al metodo della pressione differenziale.


All'interno di ogni rack IT, i server con ventole interne funzionano a velocità diverse, creando collettivamente una pressione differenziale tra la parte anteriore e posteriore del rack. Con numerosi server, ognuno dei quali contribuisce al flusso d'aria complessivo, questa differenza di pressione si accumula gradualmente tra i corridoi freddi e caldi. Utilizzando sensori di pressione in entrambi i corridoi e all'esterno dell'edificio DC, possiamo misurare questa pressione differenziale.


Il calcolo comporta la sottrazione dei dati del sensore di pressione nel corridoio caldo dalla pressione atmosferica e la sottrazione dei dati del sensore di pressione nel corridoio freddo dalla pressione atmosferica. Quindi, come nell'esempio seguente:


Esempio reale


I valori risultanti ci guidano quindi nel determinare l'alimentazione d'aria necessaria al DC e lo scarico richiesto per compensare il funzionamento delle ventole del server. In termini più semplici, valutiamo le nostre esigenze di flusso d'aria in base ai differenziali di pressione, consentendoci di gestire in modo efficiente il processo di raffreddamento all'interno del DC.


Camera di riscaldamento e miscelazione

I sistemi di riscaldamento tradizionali solitamente non vengono implementati nei Data Center con raffreddamento gratuito. L'uso dell'acqua è considerato irrazionale a causa dei costi e dei potenziali rischi per le apparecchiature. Ciò rappresenta una sfida durante i freddi estremi, che raggiungono -20-30 gradi all'esterno. Sebbene le apparecchiature lo gestiscano bene, gli ingegneri cercano un approccio più delicato. La soluzione più elegante e logica in questo caso è il riutilizzo dell'aria calda generata dalle apparecchiature IT. Indirizzando l'aria calda dai server in una camera di miscelazione e restituendone una parte alla corrente d'aria principale, il sistema mantiene i locali caldi in inverno e consente di risparmiare sui costi di riscaldamento.


Semplicità e affidabilità

Una tesi fondamentale della teoria dell'affidabilità afferma che la semplicità genera affidabilità. Ciò vale per il sistema di raffreddamento gratuito, che si presenta come un concetto notevolmente semplice. Il sistema funziona come una barricata, facendo passare l'aria dall'esterno attraverso filtri, facendola passare attraverso le apparecchiature IT e poi semplicemente espellendola.


L'assenza di sistemi complessi aumenta l'affidabilità, con solo i ventilatori che rappresentano una vulnerabilità in caso di caldo. L'approccio free-cooling esemplifica la semplificazione radicale del sistema, migliorando sostanzialmente l'affidabilità riducendo il numero di elementi.


Ventole DC vs ventole per server

L'autorità gerarchica delle ventole è un'altra questione fondamentale nella dinamica del flusso d'aria all'interno dei DC. Come abbiamo discusso, ci sono ventole su larga scala a livello di DC e quelle a livello di server. La domanda è: le ventole del data center forniscono semplicemente aria, lasciando che le ventole del server ne consumino quanto necessario? Oppure la domanda ha origine dalle ventole del server, costringendo le ventole del DC a soddisfare i loro requisiti?


Il meccanismo è il seguente: le ventole del server hanno un ruolo dominante in questo processo, determinando il flusso d'aria necessario. Successivamente, le ventole DC rispondono erogando il volume d'aria richiesto. Diventa evidente che se la domanda cumulativa di tutti i server supera la capacità di fornitura della ventola DC, può portare a un potenziale surriscaldamento.

Quindi la risposta è che le ventole del server hanno il primato in questa dinamica. Sono loro a orchestrare il flusso d'aria, specificando la quantità d'aria necessaria.


Efficienza e calcolo PUE

Per valutare l'efficienza di un progetto DC, tradizionalmente si usa il calcolo del Power Usage Effectiveness (PUE). La formula per il PUE è il rapporto tra Total Facility Power e IT Equipment Power:


PUE = Potenza totale della struttura / Potenza delle apparecchiature IT


Idealmente, è uguale a 1, il che significa che tutta l'energia è indirizzata alle apparecchiature IT senza alcuno spreco. Tuttavia, raggiungere questo scenario perfetto è raro nei progetti del mondo reale.


Un altro problema si presenta quando cerchiamo di stabilire una metodologia chiara per il calcolo del Power Usage Effectiveness (PUE). Così, ad esempio, nel nostro sistema, possediamo una metrica che indica il consumo energetico istantaneo in watt, il che rende possibile calcolare il PUE in tempo reale.


Inoltre, possiamo ricavare un PUE medio su un periodo annuale, che offre una valutazione più completa considerando le fluttuazioni stagionali. Ciò è particolarmente pertinente data la disparità nell'uso di energia tra le stagioni; ad esempio, la disparità nei requisiti di raffreddamento tra i mesi estivi e invernali. Ciò significa che se vogliamo avere una valutazione più affidabile, dobbiamo dare priorità a una media annuale che fornisca una valutazione più equilibrata e completa.


È anche importante esplorare il PUE non solo in termini di energia ma anche di unità monetarie, incorporando così le fluttuazioni stagionali dei prezzi dell'elettricità. Valutare il PUE in termini monetari offre una prospettiva più olistica sull'efficienza operativa.


Inoltre, questo approccio svela possibilità di raggiungere un valore PUE inferiore a 1 se misurato in dollari. Diventa possibile, ad esempio, quando utilizziamo il calore di scarto per il riscaldamento dell'acqua e lo vendiamo ulteriormente alle città vicine. Esempi degni di nota, come il data center di Google negli Stati Uniti e la struttura di Yandex in Finlandia, dimostrano la fattibilità di tali pratiche, in particolare nelle regioni caratterizzate da elevati costi energetici.


Efficienza vs. Affidabilità

Le preoccupazioni sulla riduzione dei costi e l'aumento dell'efficienza sollevano spesso domande sui potenziali impatti negativi sull'affidabilità. Tuttavia, vorrei sottolineare che nel raffreddamento gratuito la ricerca dell'efficienza non compromette l'affidabilità. Al contrario, i suoi effetti collaterali tecnologici possono persino migliorare l'efficienza. Ad esempio, come abbiamo già discusso, reindirizzare il calore in eccesso alle pompe di calore per ulteriori benefici, come la generazione di acqua calda per le città vicine, diventa una pratica finanziariamente vantaggiosa senza sacrificare l'affidabilità.



Il futuro del raffreddamento gratuito

Nonostante tutti i vantaggi offerti dal raffreddamento gratuito, il settore dei data center è ancora guidato da un approccio conservativo e richiede un'affidabilità comprovata, con una tendenza a resistere a soluzioni innovative. L'affidamento a certificazioni di enti come Istituto Uptime per il marketing rappresenta un ulteriore ostacolo per le soluzioni di raffreddamento gratuito, in quanto non dispongono di una certificazione consolidata, il che porta i fornitori commerciali a considerarle con scetticismo.


Tuttavia, c'è una tendenza tra gli hyper-scaler aziendali ad adottare il raffreddamento gratuito come soluzione principale per i loro DC. Con un numero crescente di aziende che riconoscono l'economicità e i vantaggi operativi di questa tecnologia, ci aspettiamo che nei prossimi 10-20 anni appariranno più data center aziendali con raffreddamento gratuito.