Con la oleada de dispositivos conectados, el consumo de energía está en su punto más alto. Y, sólo se dirige en una dirección: hacia arriba. Hoy en día hay aproximadamente 4,9 mil millones de dispositivos conectados, según la firma analista Gartner.

Para 2020, Cisco predice que habrá 50 mil millones. A medida que la demanda de potencia informática aumenta rápidamente; También lo será la necesidad de que los altos costos de la electricidad sean los impulsores de la eficiencia energética..

Uno de los mayores desafíos futuros es la mejora de la eficiencia energética en los centros de datos.

A decir verdad, el mayor desafío para la mejora de la eficiencia energética saldrá de los centros de datos. Los centros de datos tienen hambre de energía: al analizar el mercado de los EE. UU., El consumo de energía para los centros de datos de operación y refrigeración alcanzó los 70 mil millones de kWh en 2016, según el Departamento de Energía de EE. UU. En cuatro años, esa cifra alcanzará los 73 mil millones de kWh..

Mientras tanto, en el Reino Unido, todo el sector de la colocación consumió 2.5 TWh en 2015. Se estima que a nivel mundial, los centros de datos consumen entre el tres y el cinco por ciento de la energía mundial..

Eso está a la par con la industria de la aviación. Como resultado, se necesita un foco en la mejora de la eficiencia energética de los centros de datos por parte de ambientalistas, reguladores gubernamentales y el público en general..

En el lado positivo, esto les brinda a los operadores de centros de datos la oportunidad de reducir sus inmensos costos operativos altos, donde ahorrar energía no solo ahorra dinero, sino que también hará una contribución significativa para reducir las emisiones de gases de efecto invernadero y la protección del clima..

A la luz del desafío y las oportunidades, el costo y el enfriamiento eficiente de la energía de los servidores es clave para reducir los extraordinarios costos operativos al confiar en soluciones de TI más maduras y adaptables que pueden soportar temperaturas aún más altas y producir menos calor..

La cuestión del sistema de refrigeración adecuado.

En el Reino Unido, se siente alentado por los avances en las tecnologías de enfriamiento de agua y lo que significan esos avances para la sostenibilidad de los centros de datos. En comparación con el calentamiento del aire, el agua tiene una mayor capacidad para absorber el calor, lo que le permite ser la opción más rentable y eficiente para reducir la energía..

En los entornos de servidores de datos actuales, los acondicionadores de aire de alta potencia se utilizan normalmente para crear aire frío mecánico, pero ¿pueden enfriar una sala de servidores completa? Francamente, y desafortunadamente, más de la mitad del aire frío producido no llega a los puntos de acceso, incluida la CPU. Lo que queda es enormes sumas de dinero soplado en aire caliente.

Solo tome los centros de datos de Green Mountain en Escandinavia, donde los técnicos usan el agua de un fiordo cercano para enfriar sus centros de datos. Igualmente impresionantes son los de Toronto, Canadá, incluyendo Cologix y Equinx, que utilizan el agua para el proceso de aire acondicionado en sus servidores del lago Ontario. En esos dos casos respectivos, el agua participa indirectamente en el proceso de enfriamiento..

Por medio de un intercambiador de calor, el aire en el centro de datos se enfría de manera correspondiente por el medio de enfriamiento líquido y luego se utiliza para el enfriamiento gratuito del hardware. Uno podría llamarlo “refrigeración por aire 2.0.”

Sin embargo, todavía no es recomendable airear toda la habitación. Los disipadores de calor deben estar lo más cerca posible de los servidores de datos para que la refrigeración alcance la termodinámica y la eficiencia. El enfriamiento directo en oposición al enfriamiento indirecto de los puntos de acceso sería óptimo. Una técnica prometedora para lograr esto es a través del enfriamiento con agua caliente..

Las ventajas adicionales de enfriar con agua en comparación con el aire incluyen un mayor flujo y conductividad. Por ejemplo, el agua caliente a 60 grados centígrados tiene una ventaja energética y económica mucho mayor de ahorrar debido a sus propiedades físicas donde el agua, en comparación con el aire, puede absorber 3,330 veces más calor que el aire y es 20 veces más conductora..

Al acercar el medio de enfriamiento a la fuente de calor, más eficientemente se puede usar el potencial. Y, mediante un diseño inteligente, se puede lograr un enfriamiento concentrado de los componentes sensibles, como la CPU.

Debido al mayor rendimiento de refrigeración, las densidades de potencia de 45 kW por rack de servidor son posibles con una reducción simultánea del consumo de energía en comparación con un sistema de aire acondicionado convencional.

Un sistema de enfriamiento directo por agua también puede proporcionar ahorros de energía adicionales si el calor disipado proporciona beneficios adicionales. Debido a las temperaturas relativamente altas en los racks de servidores, son posibles temperaturas de salida de agua de hasta 60 grados centígrados. El agua a este nivel de temperatura se puede utilizar, por ejemplo, para el agua caliente o los sistemas de calefacción de edificios cercanos, restaurantes, hoteles y edificios de oficinas..

Ahorros adicionales gracias a la utilización inteligente del calor residual

Con la cantidad de energía que se consume en todo el mundo por la promesa de Internet of Things (IoT), Smart Homes y autos autónomos, entre otros dispositivos, la búsqueda de nuevos efectos de sinergia mediante el aumento de la eficiencia energética mediante la utilización del calor residual se realiza actualmente. cada vez más importante.

Los estudios de casos, según una encuesta reciente realizada por el Instituto Borderstep, ya están demostrando un ahorro de energía de medio a muy alto debido a la reutilización del calor del servidor de los centros de datos. En Suiza, IBM está utilizando aguas residuales para calentar una piscina cercana..

En un centro de datos en la Universidad Norte Dame de Indiana, un invernadero está utilizando calor residual, mientras que empresas como Apple y Amazon Web Services (AWS) proporcionan calor a los hogares cerca de sus centros de datos en Escandinavia..

Pero, dos problemas aún persisten. Si el calor residual tiene una salida de temperatura muy baja, menos de 60 grados centígrados, el agua no se puede reutilizar para enfriar los edificios adyacentes. Para reutilizar el calor, el agua debe tener al menos 60 grados centígrados para la preparación de agua caliente. En segundo lugar, el calor no puede ser transportado una gran distancia..

El calor residual del centro de datos solo está disponible para usarse en aplicaciones cercanas al lugar donde se produce. Mover el calor a lo largo de largas distancias podría resultar en altas pérdidas de calor y bajas temperaturas de calor para los consumidores.

En conclusión

Con el aumento significativo en la demanda de potencia de computación y los altos costos de electricidad resultantes, los conceptos ecológicos innovadores son críticos para los centros de datos.

En un estudio publicado por la firma de investigación de mercado Technavio, las oportunidades para hacer que los centros de datos sean ecológicos están creciendo a una tasa de crecimiento anual del catorce por ciento. Ya sea a través de la refrigeración directa por agua caliente u otros avances, se deben tomar medidas adicionales para lograr reducir el consumo de energía..

  • El Dr. Jens Struckmeier es el fundador y CTO de Tecnologías de nube y calor
  • Echa un vistazo a los mejores servidores dedicados