Single Blog

El futuro del data center pasa por la hiperconvergencia

06/06/2017, Escrito por 0 comment

La convergencia de servicios cloud con aplicaciones emergentes como Big Data e Internet de las cosas crea nuevas oportunidades de negocio, a la vez que una ingente cantidad de información a manejar en los centros de datos, alentando las innovaciones en infraestructura y plataformas con soluciones hiperconvergentes o definidas por software.

foto

Los centros de datos tradicionales, monolíticos y sobredimensionados han dado paso al centro de datos modular, que crece según las necesidades del cliente. A nivel tecnológico, la integración y la convergencia podrían mencionarse como los cambios más destacados, aunque el objetivo principal de cualquier centro de datos sigue siendo el mismo: garantizar la disponibilidad de los servicios alojados en él.

La evolución principal en los últimos años de los centros de datos se puede resumir principalmente en dos tendencias, ambas íntimamente relacionadas con cloud computing y también entre sí, considera José Manuel Armada, director de ingeniería de clientes de Interoute Iberia. “En primer lugar, tenemos un importante aumento del consumo eléctrico por metro cuadrado, ya que la virtualización permite a los clientes concentrar un mayor número de servidores físicos en el mismo espacio que antes ocupaban arquitecturas más heterogéneas en cuanto a espacio y consumo y que ahora se virtualizan. Y, por otra parte, los ciclos de CPU que antes se desperdiciaban se han reducido mucho y se extrae mucho más rendimiento del hardware”, explica. “En segundo lugar, los centros de datos de nueva generación son mucho más modulares en su diseño, frente a los diseños monolíticos del pasado. Existen razones de índole económica, ya que permite añadir los componentes más costosos (refrigeración y fuerza principalmente) según va siendo reclamado por los clientes y contar siempre con componentes de última generación, que son suficientes y ocupan menos espacio. Pero también hay razones técnicas y de seguridad, ya que la modularidad como concepto de diseño reduce los puntos comunes susceptibles a fallos y evita la sobredimensión e infrautilización de los componentes”, considera Armada.

Por su parte, Antonio Gorrachategui, director del Centro de Datos de Fibernet es de la opinión que la principal evolución del data center está encaminada hacia el centro de datos virtual, “que nos puede ofrecer el crecimiento o decrecimiento de la infraestructura disponible estando operativo en un corto espacio de tiempo, lo que permite ahorros de energía, aumentar la eficiencia y SLA. Atendiendo a esta característica, siempre tendremos controlados nuestros costes, tanto al alza como a la baja, permitiéndonos pagar únicamente lo que necesitemos”.

No obstante, como indica Garrachategui, la conversión del servicio no es fácil ya que las mismas infraestructuras deben sufrir cambios radicales, salas, climatización, seguridad, equipamiento, energía… “todos los componentes tradicionales se ven afectados de una u otra manera”.

En esta línea, Francisco Dalmau, country manager de Nutanix para España y Portugal considera que los centros de datos tienden a ser totalmente controlados por software. “La transformación digital tiene diversas fases y muchas definiciones, pero transformación y movilidad van cogida de la mano. En este sentido, los data centers del futuro deben asumir y entender el cambio de consumo de IT, tal como hemos visto con AirB&B, Uber u otros servicios de nuestra vida cotidiana”. De hecho, para Dalmau, los centros que sean capaces de asumir ese cambio de mentalidad de cómo se consume el IT serán los que marquen la diferencia. “A este respecto, algunos ya han comenzado su transformación con soluciones como Nutanix Enterprise Cloud que aporta esa flexibiidad, libertad de elección y compra inteligente; otros lo harán próximamente y, otros tantos, sin duda morirán en el camino. Recordemos un dato histórico: la mitad de las empresas que existían hace 15 años en S&P ya no están. Su fin simplemente llegó provocado por la no transformación de su infraestructura”.

Adaptarse a los nuevos requisitos

La calidad y prestaciones pueden variar bastante entre un CPD y otro, pero, ¿qué puede marcar la diferencia en estos tiempos de transformación digital donde las nuevas tecnologías como big data o IoT vienen empujando fuerte?

Para Antonio Gorrachategui, la concentración de servidores, la mayor necesidad de almacenamiento, el aumento progresivo de ancho de banda, las redes SDN, las nuevas oportunidades en e-commerce, e-learning, e-banking, e…, así como tecnologías como el Big Data, redes sociales, movilidad, 5G, IoT, etc, supondrá a 5 años que la demanda de energía que se necesitará en los centro de datos de una empresa o un hoster aumente sustancialmente, y por lo tanto las infraestructuras que lo soporten. “No es muchos años se prevé llegar al consumo del 40 KW por rack, lo que supone una adaptación de todos los elementos que lo soporten”, afirma. “Pensemos que actualmente el entorno cloud como servicio a clientes está creciendo en torno al 20% anual y que en un par de años habrá conectados en el mundo alrededor de 65.000 millones de dispositivos a la red”.

Asimismo, dado que unos servicios requieren la proximidad al cliente, que solo pueden ofrecer centros locales, mientras que otros requieren las posibilidades de crecimiento que solo pueden ofrecen los enormes centros globales, Alberto Alvarez, director técnico de Sarenet apunta a que “lo que puede ser diferenciador en este sentido es la posibilidad de ofrecer soluciones híbridas a los clientes”.

Por su lado, Xavier Morrus, CMO & Partner Relationship Manager de Mediacloud considera que lo que marcará la diferencia entre los diferentes centros de datos serán las alianzas con fabricantes y partners, así como las modalidades de servicio y garantías que se den sobre ellos. “También puede diferenciar su cobertura o capilaridad, cada vez más se tiende a menos metros pero más puntos de presencia para que el fallo físico tienda a cero, donde las alianzas son fundamentales”.

En opinión de Iván Gimeno, Business Development Manager IE/IT de Rittal, los siguientes cuatro puntos serán algunos de los que determinen la diferencia en los data centers del futuro:

  • Introducción de soluciones de climatización para alta densidad (HPC) basadas en agua tanto para climatizar directamente a racks como pasillos.
  • Soluciones de data centers estandarizados o prefabricados como la solución RiMatris S que permiten acotar los tiempos de diseño y ejecución de proyectos.
  • Soluciones de micro data centers para centros pequeños con necesidades de alta seguridad o como DC en entornos de Edge Computing o IoT.
  • Soluciones ‘paquetizadas’ para todo tipo y tamaño de data centers: en racks de servidores individuales/ensamblados, en armarios ignífugos, en salas de seguridad certificadas y en containers, todos ellos con toda la infraestructura asociada a un data center: climatización, potencia, monitorización y seguridad.
foto

La ‘revolución de las máquinas’

De acuerdo a la consultora IDC, para finales de 2020 habrá conectados 212 mil millones de dispositivos; y es que, según un informe de Cisco, para ese año el IoT crecerá más rápido que ninguna otra área y, por tanto, la generación y conexión de datos e información será ingente.

Así, según José Luis Montes, Business Development VP de Walhalla, IoT conllevará nuevas comunicaciones globales, la utilización de redes definidas por software, gran capacidad de cómputo y, sobre todo, gran capacidad de almacenamiento no estructurado.

“Sin duda, internet de las cosas cambiará el mundo revolucionando desde la forma en que compramos hasta el modo en el que las empresas fijan su ‘target’ de clientes, manejan sus inventarios, realizan campañas de marketing, de acceso a clientes, etc. Lo que hemos visto hasta ahora es solo el principio”, afirma Francisco Dalmau. Realmente, IoT está llamado a cambiar el mundo en pocos años, pero, por desgracia, el centro de datos actual no estará listo para ello si sigue basándose en ‘vendors’ y tecnología tradicional. En este contexto, factores como la escalabilidad, go to market, simplicidad o ahorro —algo que Nutanix incorporó desde el día de su nacimiento— serán claves para las tecnologías del futuro, comenta.

Para el centro de datos, la irrupción de IoT significa, en esencia, que “los usuarios de las aplicaciones alojadas en sus instalaciones dejarán de ser en su mayoría personas para ser máquinas que se comunican entre sí de forma automatiza”, advierte José Manuel Armada. “Al igual que IoT tiene un impacto importante en las redes, el centro de datos deberá poder escalar sus recursos bajo demanda y sin intervención humana y contribuir a que las infraestructuras alojadas reaccionen de la forma adecuada ante situaciones cuyas reglas se establecerán utilizando la inteligencia artificial y el aprendizaje. Es un importante reto para un negocio que, en a la actualidad, es básicamente manual en todos sus procesos de venta, provisión, instalación y mantenimiento”.

Pero, “más allá de las cifras, la ola de transformaciones que trae IoT es la cara más impactante de esta tendencia, ya que obliga a las organizaciones a renovar sus estrategias para estar a la altura de los retos”, previene Antonio Gorrachategui. “Esto plantea importantes desafíos para las empresas y organizaciones respecto de cómo gestionar, almacenar y asegurar esos datos. IoT supone para las organizaciones la tarea de integrar los datos provenientes desde activos remotos y dispersos con el flujo de información habitual de sus centros y gestionar todo en forma centralizada”.

En este sentido, Xavier Morrus considera que “los proveedores de infraestructuras deberemos poner a disposición de los clientes plataformas con una alta capacidad de proceso y un gran volumen de almacenamiento para que puedan poner en marcha soluciones de big data e IoT. Evidentemente, las comunicaciones es un punto importante pero la gran mayoría de centros de datos y proveedores de infraestructuras están debidamente conectados con los principales carriers de comunicaciones e incluso CDNs (redes de entrega de contenidos)”.

foto

Evitar intrusiones

Un estudio sobre el coste de las interrupciones en los centros de datos de Ponemon Institute de 2016 revelaba que el 22% se debía a ataques cibernéticos.

La seguridad, en general, es una prioridad en la gestión de los data center, comentan desde la compañía Eaton. Por una parte, para hacer frente a la inminente entrada en vigor (mayo de 2018) de la nueva regulación de protección de datos a nivel europeo (GPDR) y, por otra, para ser capaces de hacer frente a posibles ciberataques.

“Resulta obvio que a medida que conectamos más dispositivos para facilitar su gestión y automatización, las posibilidades de sufrir un ciberataque también se acrecientan. En los últimos meses, hemos asistido a ataques a nivel mundial a empresas de reconocido prestigio. Los ataques, en la actualidad se están produciendo a todos los niveles y la nube es uno de sus objetivos, debido a la gran cantidad de datos que ahí se almacenan. Por todo ello, los data centers cada vez están más preocupados por la ciberseguridad e invierten en soluciones que les permitan cerrar las brechas. En este sentido, es importante implementar las medidas adecuadas para cada tipología de data center, que permitan identificar un posible ataque y poner en marcha los mecanismos que impidan que ese ataque tenga lugar”.

Para el responsable de Fibernet, las redes SDN introducirán una nueva capa de seguridad a todo este mundo de la transmisión de la información. “La ‘denegación de servicio’, entendido como un ataque informático especialmente dirigido a redes de ordenadores, tiene como objetivo lograr que un servicio específico o recurso de la red quede completamente inaccesible a los usuarios legítimos de la red. Por lo tanto, todo lo relacionado con elementos que neutralicen, analicen y den respuesta a toda actividad delictiva será necesario considerarlo en el entorno del data center”.

Por su parte, Alberto Castella, director comercial de Vertiv comenta cómo, en el caso de la seguridad, los profesionales de los centros de datos se están planteando como posible solución el uso de portales de gestión que consoliden los datos de los diversos dispositivos para respaldar las soluciones DCIM. “Y es que, con algunas modificaciones, pueden identificar los puertos no seguros de toda la infraestructura crítica y proporcionar una alerta temprana sobre los ataques de servicio”.

Por su parte, desde la compañía Sarenet consideran que la protección frente a ataques ciberneticos requiere en primer lugar disponer de centros de datos con redes y plataformas cloud sin punto único de fallo y con suficiente capacidad para evitar que estos ataques produzcan cortes masivos de servicios. “Con esta base, servicios sofisticados con la seguridad perimetral de Sarenet permiten mitigar el impacto de los ataques a servicios alojados en el centro de datos”.

En busca de la eficiencia energética

Más allá de las cuestiones relativos a la seguridad, si hablamos del ‘problema’ del consumo energético, Xavier Morrus considera que es muy necesario analizar el emplazamiento del centro de datos ya que hay zonas con climas mejores para aplicar técnicas de ‘freecooling’. “También es necesario apostar por soluciones de climatización y soluciones de infraestructuras que sean muy eficientes. En la actualidad se empieza a analizar los sistemas de refrigeración por inmersión para mejorar el proceso de eliminación de calor de los centros de datos”.

Y es que, según advierten desde la compañía Eaton, los data center son actualmente una de las industrias más contaminantes debido, en gran parte, al alto consumo de la energía eléctrica. Sin embargo, muchos otros factores afectan a esta realidad, desde el diseño del data center a su ubicación geográfica. “En Eaton trabajamos en alternativas reales que contribuyen a mejorar el funcionamiento de los data center al tiempo que reducen el impacto medioambiental. Los green data center son centros que están acogiendo estas soluciones con muy buenos resultados. Más en concreto, la tecnología Energy Saver System de Eaton, que utilizamos en todos nuestros SAI trifásicos Premium, es una solución que proporciona un gran avance respecto a los tradicionales diseños de SAI de doble conversión, ya que reduce significativamente la energía requerida para alimentarlos y, al mismo tiempo, genera menos calor, con lo cual disminuyen las necesidades de refrigeración y los costes”.

En este sentido, desde Vertiv también están concienciados en la importancia de la reducción de la huella ecológica. “Además de que nuestros sistemas de alimentación ininterrumpida son muy eficientes energéticamente, el uso creciente de tecnologías avanzadas en ‘freecooling’ y la evolución continua de los controles inteligentes han permitido desarrollar estrategias de ‘Thermal Management’ muy sólidas y que han hecho cambiar el paradigma de enfriar el centro de datos para pasar a gestionar la eliminación del calor del modo más eficiente. En nuestra opinión, ésta es la tendencia del futuro. Se adaptarán los centros de datos a la ubicación y disponibilidad de recursos y los avances en refrigeración adiabática y por evaporación proporcionarán también soluciones de ‘Thermal Management’ eficientes, fiables y económicas”, explica Alberto Castella.

En esta misma línea, Iván Gimeno, de la compañía Rittal advierte que para aumentar la eficiencia energética de un CPD se deben hacer, entre otras, acciones para minimizar los consumos de la parte de climatización. “Para ello existen soluciones actuales donde por mediación de ‘freecooling’ indirecto o directo podemos llegar a unos ahorros en el consumo energetico de la climatización de un 30-70% dependiendo de cada caso. Por otro lado, aunque en menor impacto directo, también es importante contar con soluciones de SAI de nueva generación con rendimientos de 95-96% que minimizan mucho las ineficiencias”.

No obstante, para Sarenet, al margen de informaciones alarmistas sobre el incremento del consumo energético en los centros de datos, hay que tener en cuenta la reducción de consumos tanto en las empresas, por la migración de sus aplicaciones a los centros de datos, como a nivel doméstico por la substitución de los equipos locales de reproducción multimedia por la recepción de estos contenidos via ‘streaming’.

foto

Soluciones para el ‘data problem’

El volumen de datos que manejan las empreas, así como de dispositivos y servicios conectados está creciendo a un ritmo sin precedentes, pudiendo llegar a suponer un problema para sistemas antiguos no preparados para las nuevas y más recientes tecnologías.

Es por ello que el almacenamiento y tratamiento masivo de datos requiere de plataformas cloud flexibles que permitan manejar grandes volúmenes de datos a bajo coste, opina José Luis Montes, responsable de Negocio de Walhalla. “Tecnologías como openstack con el uso de ‘Swift’ y sobre todo ‘CEPH’ son una opción muy interesante que debe completarse con soluciones hiperconvergentes y software cada vez más evolucionado para el tratamiento de grandes cantidades de información no estructurada”, comenta.

Por su lado, para el responsable de Fibernet, la virtualización de datos es la forma más eficiente para afrontar los problemas de rendimiento, capacidad y gestión de movilidad. “Una configuración en modo virtual cambia la relación entre el servidor físico y el almacenamiento. Cuando existen múltiples cargas de trabajo con diferentes IOs que están siendo multiplexados, el resultado son flujos que compiten por los recursos, lo que aumenta las IOPs necesarias para dar servicio a las cargas de trabajo virtuales. Para solucionar este problema se suele añadir más discos. Las máquinas virtuales encapsulan el sistema operativo, aplicaciones y datos, el centro de datos virtualizado agrega un volumen masivo de datos redundantes y crea una enorme ineficiencia en la capacidad de almacenamiento”.

“Desde Nutanix, nacida como una solución de infraestructura hiperconvergente que ha evolucionado a una solución cloud, nos planteamos el crecimiento del dato como una parte natural de la vida en IT. De hecho, si algún factor está claro, este el de que los datos seguirán creciendo y lo harán de forma exponencial. De aquí el valor de las soluciones hiperconvergentes, donde la visión de negocio, la flexibilidad de crecimiento y el poder combinar almacenamiento con computación es clave para los rendimientos y para poder analizar toda esta gran cantidad de datos”.

Leer más