A medida que crecen nuestros requerimientos por mejores “nubes”, el centro de datos se vuelve un aliado fundamental. Sin embargo, cabe recordar que sus capacidades están dictadas por la infraestructura que lo sostiene.

Con la pandemia de Covid-19, los requerimientos de los centros de datos, no solo aumentaron por las muchas empresas que implementaron prácticas de teletrabajo, sino también por la gran cantidad de usuarios finales quienes -respetando la cuarentena y el aislamiento social- incrementaron su demanda por entretenimiento en línea y pedidos a domicilio. En este escenario, la relevancia de contar con una sólida infraestructura en el centro de datos se hizo patente.

Al respecto, Rubén Coello, Profesor del Área Informática y Telecomunicaciones en INACAP Sede Santiago Centro, afirma que, debido al estallido social de 2019 y a la actual pandemia, la mayor parte de las compañías del país han debido generar cambios para adaptarse y sobrevivir. “La incorporación de tecnología digital para hacer frente a estos acontecimientos está transformando todo tipo de empresas, un desafío que afecta especialmente a los sectores más tradicionales”, explica. “Los grandes cambios conducentes hacia la transformación digital, el teletrabajo, la reconversión de los procesos, han generado que las empresas alcancen en pocos meses un grado de madurez en la incorporación de tecnologías que posibiliten adaptarse a estos procesos de cambio. En un par de meses, pasamos de ser un mercado clásico de Latinoamérica a un mercado activo en las implementaciones de soluciones tecnológicas de alto valor”, agrega.

En ese sentido, y con la evolución de las arquitecturas informáticas, el concepto “monolítico” de data center también ha ido dando paso a otras tendencias. Oliver Zalazar Robles, Docente en las Áreas de Redes y Telecomunicaciones, y Ciberseguridad del Instituto Profesional CIISA, explica que, en la actualidad, una de las principales es el uso de soluciones de cómputo que reduzcan la huella de carbono pensando en el medio ambiente, que “optimicen los consumos de energía, que simplifiquen la gestión y la operación basados en IA y la automatización de sus procesos, además que permitan un aprovisionamiento de recursos en menor tiempo posible, sin dejar de lado, la protección de datos. Hoy encontramos que la hiperconvergencia cubre todos estos aspectos y se ha convertido en la base para las soluciones de ‘Data Center Definidos por Software’ (SDDC)”

Por su parte, Nicolás Goncalves, Gerente de OTIC – BPO de Adexus, recuerda que los sistemas y la infraestructura TI que se utilizan en los data centers tienen distintos matices, y que estos están fuertemente influenciados por la industria a la que pertenece el cliente final. “En definitiva, las industrias más tradicionales y más reguladas son las que mantienen mayor cantidad de sistemas on-premise, mientras que las menos reguladas están migrando hacia sistemas hiperconvergentes en todas sus variantes”, afirma. A juicio de Coello, existen en este ámbito tres grandes tendencias que están emergiendo con fuerza. “Los data centers actuales deben estar preparados para alojar, soportar el procesamiento y la interconexión de estas nuevas tecnologías emergentes de una manera confiable, segura y adaptable a los cambios”, asevera.

Es así como una de las tendencias es el Edge Computing que “posibilita a las compañías generar análisis de datos sobre importantes volúmenes de información casi en tiempo real, y en donde los datos no necesariamente deben estar en los centros de datos locales, sino que distribuidos en diferentes lugares físicos aprovechando las ventajas que ofrece la nube híbrida, lo que se transforma en una gran ventaja competitiva para las empresas”.

En segundo lugar, Coello menciona los sistemas multicloud híbridos, “en donde se combinan todas las ventajas de la nube privada con las de las nubes públicas, posibilitando el uso de los servicios de múltiples proveedores, convirtiéndose así en una excelente alternativa para aquellas empresas que requieren disponer de ejecuciones seguras de sus aplicaciones de misión críticas”.

En tercer lugar, continúa el docente, está la incorporación de nuevas interconexiones de IA e IoT, “en donde la Inteligencia Artificial y la Internet de las Cosas son tecnologías que requieren procesar grandes cantidades de datos provenientes de múltiples fuentes para su funcionamiento”.

El equipamiento

Consultado sobre los cambios que se están dando en el equipamiento, Zalazar explica que, en el ámbito de las UPS para data centers, las baterías de iones de litio están comenzando a convertirse en un importante actor. “Estas baterías son considerablemente más pequeñas y livianas que sus contrapartes estándar (plomo), reduciendo significativamente el espacio físico que ocupan en los gabinetes y, en algunas instalaciones, permiten almacenarlas en las filas de racks. En ese sentido, la apuesta está en los sistemas de cómputo con mayor densidad de procesamiento con menor utilización de espacio de rack”, asegura.

Con respecto a la climatización, el docente de CIISA manifiesta que el objetivo ahora está en fabricar y usar equipos eficientes, que preserven el medio ambiente y que sobre todo se adapten a las necesidades climáticas de cada país. “Europa ha desarrollado leyes sobre el uso de gases en el aire acondicionado de obligado cumplimiento para el año 2030, y ya existen vendors que tienen soluciones de climatización para data centers en base a estas normativas”, indica.

En este ítem, Coello, de INACAP, indica que para disminuir costos energéticos e incorporar eficiencia de la gestión, los nuevos sistemas de climatización incorporan tecnología de refrigeración líquida. “Dentro de sus ventajas está la posibilidad de implementarla en áreas específicas por fila y rack; es muy segura, tiene pocas piezas móviles y es flexible”, garantiza.

Asimismo, sobre los racks, el académico sostiene que la densidad promedio se mantiene estática, pero se han anunciado tecnologías “incipientes” que incorporan inteligencia artificial (IA) a la gestión y administración de los racks, que aún no se han implementado en el país. Respecto a la construcción y operación de un data center, Goncalves, de Adexus, explica que existen estándares que definen el tipo de servicio que puede entregar este tipo de instalaciones. “El que predomina a nivel local y global es el de Uptime Institute que clasifica el Diseño, Construcción y Operación de los mismos. En Chile, la oferta es muy buena y está concentrada en los niveles más altos de certificación de clase mundial”, agrega.

A la del Uptime Institute, Zalazar añade la norma ICREA-Std-131-2017 que marca niveles (I a V), y aclara que ambas certificaciones miden la totalidad de las componentes de energía y enfriamiento de los data centers. “Los términos N, N+1 y 2N, por lo general, se refieren al número de componentes de energía y enfriamiento que comprenden la totalidad de los sistemas de infraestructura del centro de datos”, describe. “De este modo, ‘N’ es la calificación mínima de cualquier componente requerido para soportar la carga crítica; un sistema de ‘N’ no es redundante en absoluto, lo cual supone que, en caso de corte de luz, los componentes como UPS, generador o unidad de enfriamiento se verán afectados. En el caso de los Tier N+1 y 2N, éstos representan niveles crecientes de respaldo de energía y rutas de alimentación”.

Chile: ¿Un mercado maduro?

Según Goncalves, en lo relativo a centros de datos, Chile es un mercado “maduro” con un buen balance de calidad y precio en sus preferencias tecnológicas. “En términos generales, tiene una dinámica de adopción de nuevas tecnologías que se puede destacar a nivel regional”, dice el ejecutivo.

En tanto, Coello indica que “en Chile, las medianas y grandes empresas, antes de elegir algún tipo de alternativa de solución tecnológica, deciden sus líneas de inversión con base en las prestaciones y funcionalidades de los productos, tratando de mantener un enfoque equilibrado de costos/beneficio; considerando las prestaciones de la tecnología, beneficios al negocio, procesos involucrados y las opiniones de los stakeholders, e involucrando durante el proceso a todos los roles claves que se verán afectados por la decisión. Con base en este proceso de evaluación de las soluciones, el factor costo es una de las variables (pero no la más importante) en el proceso de la toma de decisiones”.

En términos de implementación de centros de datos, para el ejecutivo de Adexus, el principal cambio va de la mano de los sistemas hiperconvergentes que habilitan, entre muchos otros aspectos, “opciones claras de pago por uso, similar, y en algunos casos mejor, al que se puede obtener en las nubes públicas. Por otra parte, sobre estos mismos sistemas se montan soluciones que permiten evolucionar las aplicaciones para que escalen el uso de recursos a medida que son necesarios”.

A esto, Coello añade que los data centers requieren un buen servicio hiperescalable y ser capaces de operar más rápido en momentos críticos. “Para poder cumplir estos requerimientos, deben mejorar sus infraestructuras tecnológicas y evolucionar hacia sistemas híbridos, los que proporcionan agilidad y flexibilidad, adoptando funcionalidades de Inteligencia Artificial. La inteligencia artificial (IA) y el machine learning (ML) han evolucionado significativamente, implementando mejores tipos de soluciones en todos los ámbitos”, afirma. “Y a medida que se vuelven más refinadas, las UPS inteligentes pueden alertarnos cuando necesitan una batería nueva o solucionar problemas, o un sistema de climatización puede tomar decisiones respecto de la temperatura de la sala, mientras que los sistemas de medición de cargas eléctricas inteligentes pueden activar alertas por distintos comportamientos anómalos”.