Computación en la nube: ¿Qué tan ecológica es?

La computación en la nube se promociona como una tecnología «verde», pero esta afirmación no tiene en cuenta el impacto ambiental sobre los recursos escalables. Puede que sea importante el hecho de experimentar, por ejemplo, el ahorro de energía en una escuela mediante la reducción de su hardware, pero otros factores ambientales como la eliminación de los desechos electrónicos y las fuentes de energía utilizadas por los centros de datos contratados también deben ser atendidas teniendo en cuenta su validez en cuanto a tecnología verde se refiere.

Reducir el uso de electricidad en una escuela, o bien, la reducción de la huella de carbono, es el principal reconocimiento positivo del impacto ecológico de la computación en la nube. La reducción de la huella en muchas escuelas, aumentaría la eficiencia energética. de acuerdo con Stephen J. Jatras, profesor de ingeniería eléctrica e informática, y Greg Ganger, director del laboratorio de datos de la Universidad Carnegie Mellon, afirmaron:

«En sí misma, la computación en la nube no es mágica y no es necesariamente una tecnología verde. Aquí es donde identificamos un problema: Si vemos que tan utilizado es el servidor en una escuela, probablemente encontraremos que la respuesta sea un porcentaje bajo. En un diez por ciento del tiempo, supongamos que el servidor este ocupado. El otro 90 por ciento de las veces sigue en pie, pero realmente no está haciendo algo útil.»

“Al tener un servidor escolar que trabaja un 10 por ciento de las veces en una infraestructura compartida, no sólo se va a pagar por ese 10 por ciento del servidor solamente sino por todo, y teniendo en cuenta que el 90 por ciento restante va a ser utilizado por otros».

Este argumento muestra resultados sensibles en materia ambiental sobre la computación en la nube, en la que esta no es más que una visión limitada del impacto ambiental real que tiene.

Una falsa sensación ecológica

El reporte “Que tan sucios son tus datos? Una mirada a las opciones energéticas para la computación en la nube”, publicado en abril por Greenpeace Internacional, indica que la comunidad informática en la nube definir «verde» como un cálculo simple de ahorro de energía.

«Este enfoque puede ser entendido, en parte, por la forma en que la industria ha definido el problema basándose en solo consumo de energía». Dice el informe: «Así, el enfoque ha sido una solución estrictamente técnica: Mejorar la eficiencia energética del servidor y reducir los desperdicios asociados con la refrigeración y otras demandas energéticas no informáticas.” Sin embargo, lo que este enfoque no tiene en cuenta, es el tipo de energía utilizada para alimentar dicho consumo.

El informe examina el origen de la electricidad utilizada para alimentar los centros de datos, que van desde la eólica renovable e hidroeléctrica hasta las más contaminantes como el carbón y la energía nuclear. Aunque el informe elogia a Microsoft, Yahoo y Google en cuanto a localización de los centros de datos en el noroeste del Pacífico «aprovechando la capacidad hidroeléctrica de la región», también critica al mismo Google, a Apple y a Facebook por localizar centros de datos en Carolina del Norte. Dicho estado es uno de los dos mayores consumidores de carbón obtenidos a través de la destrucción de las cimas de las montañas. Cada cima es desaparecida con el fin de llegar al carbón. Las empresas de energía suministran electricidad en todo el estado utilizando carbón obtenido de estas, con un total de 501 montañas que han destruidas por este tipo de minería a cielo abierto.

Una nube de color marrón con franjas verdes

La eliminación ambientalmente responsable de los equipos informáticos, conocida como e-waste, con programas de reciclaje limitados, abarca desde escuelas hasta otras instituciones. Gran parte de este equipo informático termina en los basureros. De acuerdo con la Agencia de Protección Ambiental de los Estados Unidos, 2.37 millones de toneladas de productos electrónicos estaban «listos para gestionarse después de su vida útil» en el 2009, pero sólo el 25 por ciento de ese material se recogió para su reciclaje. Cinco por ciento se almacenó y el 70 por ciento restante se destinó a los vertederos, donde se pueden derramar químicos tóxicos y metales como el berilio, el mercurio y el PVC (policloruro de vinilo).

Algunos de los problemas ambientales en la nube pueden ser solucionados en los mismos centros de datos. un ejemplo de esto es el “programa de retiro de servidores” de Google, a través del cual Google afirma que reutiliza o recicla 100 por ciento del hardware en sus centros de datos. La compañía es además vista como un líder industrial en la construcción y operación de centros de datos eco-amigables.

Ganger, quien esta ayudando a establecer el centro de ciencia y tecnología para la computación en la nube de Intel en Carnegie Mellon, tiene la ventaja de mirar a la nube desde adentro. El considera que las decisiones principales se deben tomar en Tecnología Informática, aun en las escuelas, y que los autodenominados “productos verdes” toman un rol secundario.

Estos son avances importantes en tecnología ecológica, pero hasta que la evidencia de su efectiva reducción de carbono sea documentada para el todo el ciclo de implementación, una nube verde en su totalidad simplemente no existe.

 

Una animación de Google muestra que sucede cuando un usuario de Gmail presiona enviar. Detrás de escenas se encuentran centros de datos asegurados y energéticamente eficientes que optimizan el uso de servidores y el rendimiento para el usuario final.

Los datos de tu cuenta de Gmail viven, de alguna forma, en una selva de servidores, cables y discos duros conocida como «la nube» pero a menudo cambia de sitio en busca del rendimiento ideal.

Google muestra una animación que responde la pregunta ¿que pasa cuando presiono enviar en Gmail? La compañía creó una interesante animación interactiva que es llamada “La Historia del Envío” que resalta la seguridad y la relativa baja huella de carbono de sus centros de datos. La grafica muestra el estimado de Google en el que sus centros de datos utilizan 50 por ciento menos energía que un típico centro de datos y 30 por ciento de la energía de sus centros de datos proviene de fuentes renovables, incluyendo la eólica y la solar.

Los representantes de Google revelaron que la compañía ha vuelto a diseñar su infraestructura de nube de una forma que se optimizaron sus recursos y mejoró la eficiencia energética. No indicaron cuando se hizo tal cambio, pero indicaron que esta arquitectura de recursos compartidos ha estado activa durante un buen tiempo.

Típicamente, los centros de datos tienen sistemas de respaldo redundantes para asegurar que los datos y servidores estén disponibles para los clientes todo el tiempo. En lugar de crear un espejo de cada centro de datos en otra ubicación, Google ha diseñado un sistema de respaldo de «uno en muchos», explicó Sabrina Farmer, gerente de ingeniería de Gmail. Esto significa que si hay una falla en una ubicación, las cargas son distribuidas a muchos centros de datos.

Tratar todos los centros de datos como una sola pila de recursos también significa que una cuenta de Gmail o Google Apps no están atadas a una ubicación especifica. De la medida en que una persona utilice su correo y la localización del usuario determinará su servidor de alojamiento y sus servidores de respaldo, indicó Farmer.

En el caso de Farmer, su email corporativo está localizado en el Valle de Silicio, mientras que su cuenta personal está ubicada en Europa ya que esto provee el rendimiento mas adecuado, afirma. Los ingenieros rastrean los datos, tales como su tiempo promedio de respuesta, y hacen cambios en el lugar en el que la cuenta del cliente esté alojada, mejorando su rendimiento. Mas del 90 por ciento de los emails de Gmail son enviados dentro de los siguientes 5 segundos y mas del 50 por ciento llega en menos de un segundo.

Este es un uso eficiente de los recursos permite que Google no necesite tener un sistema completo en standby en cada una de sus ubicaciones. La arquitectura también permite a Google usar completamente los recursos, en lugar de miles de servidores en espera.

«El hecho que nosotros no tengamos que hacer copias es un ahorro de costos significativo para el producto», afirmó Farmer. «Este ha sido un cambio mayor en como manejamos nuestros recursos y distribuimos la carga».

Los representantes se negaron a agregar fuentes documentales para comprobar la eficiencia energética, pero dijeron que esto era significativo y tenia el empuje entusiasta de la compañía para mejorar la eficiencia y reducir su huella de carbono. Farmer afirmó que la ingeniería detrás del movimiento fue grande, pero que la compañía puede ahora ofrecer rendimientos precisos de la aplicación al mover las cuentas de usuario entre ubicaciones.

«Miramos la actividad de los usuarios constantemente y si encontramos que podrías ser mas productivo si movemos tu cuenta, eso haremos» afirmó.

Calificar
[Total:0    Promedio:0/5]

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *