ABB adquiere el negocio de redes de comunicaciones de KEYMILE

Categorías relacionadas:
Del día, Infraestructura, Infraestructura, Lo más reciente, redes, Telecomunicaciones, Tendencias

ABB anunció su acuerdo para adquirir el negocio de aplicaciones críticas de comunicación del Grupo KEYMILE, busca fortalecer su portafolio de redes de comunicación.

La empresa señala que la compra agrega a su portafolios software y soluciones de servicio, así como experiencia en investigación y desarrollo. Se espera que la transacción concluya durante el tercer trimestre de 2017. Ambas compañías han acordado no desvelar el monto.

Leer más...



¿Sabe descifrar todos los sufijos de red en su Centro de Datos?

Categorías relacionadas:
Cómo hacerlo, Centros de datos, Del día, Destacado, Infraestructura, Infraestructura, redes, Tendencias

A través de la definición de estándares de la IEEE, Channel Fiber y especificaciones de la industria, se buscan mayores velocidades hacia rutas de migración de 200 Gbps, 400 Gbps y más, con fibra monomodo y multimodo.

El continuo crecimiento en el ancho de banda del centro de datos ha obligado a preparar nuevos caminos que soporten velocidades más altas. Un enlace de 10 Gbps, una vez considerado como extremadamente rápido, está dando paso a enlaces de 100 Gbps y más.

Leer más...



Cómo funciona un centro de datos hoy y cómo lo hará mañana

Categorías relacionadas:
Administración, Administración de proyectos, Cómo hacerlo, Centros de datos, Infraestructura, Lo más reciente, Lo más reciente, Principal, Tendencias, Tendencias, Virtualización, Virtualización

Centro-de-Datos-del-futuro

Un centro de datos es una instalación física que las empresas usan para alojar sus aplicaciones e información de negocio crítico, a medida que evolucionan, es importante pensar a largo plazo sobre cómo mantener su fiabilidad y seguridad.

Componentes del centro de datos

Los centros de datos se refieren a menudo como algo singular, pero en realidad se componen de una serie de elementos técnicos como enrutadores, conmutadores, dispositivos de seguridad, sistemas de almacenamiento, servidores, controladores de entrega de aplicaciones y más. Estos son los componentes que TI necesita para almacenar y administrar los sistemas más críticos que son vitales para las operaciones continuas de una empresa. Debido a esto, la fiabilidad, la eficiencia, la seguridad y la evolución constante de un centro de datos suelen ser una prioridad.

Infraestructura de centro de datos

Además de los equipos técnicos de un centro de datos también requiere una cantidad significativa de la infraestructura de las instalaciones para mantener el hardware y software en marcha. Esto incluye subsistemas de alimentación, fuentes de alimentación ininterrumpida (SAI), sistemas de ventilación y refrigeración, generadores de respaldo y cableado para conectarse a operadores de red externos.

Arquitectura del centro de datos

Cualquier empresa de tamaño significativo probablemente tendrá múltiples centros de datos posiblemente en múltiples regiones. Esto da a la organización flexibilidad en la forma en que respalda su información y protege contra desastres naturales y provocados por el hombre, tales como inundaciones, tormentas y amenazas terroristas. La forma en que el centro de datos se diseña puede ser algunas de las decisiones más difíciles porque hay opciones casi ilimitadas. Algunas de las consideraciones clave son:

¿El negocio requiere centros de datos duplicados?

¿Cuánta diversidad geográfica se requiere?

¿Cuál es el tiempo necesario para recuperarse en caso de una interrupción?

¿Cuánto espacio se requiere para la expansión?

¿Debe alquilar un centro de datos privado o utilizar un servicio de co-localización / gestión?

¿Cuáles son los requerimientos de ancho de banda y potencia?

¿Hay un operador preferido?

¿Qué tipo de seguridad física se requiere?

Las respuestas a estas preguntas pueden ayudar a determinar dónde y cuántos centros de datos construir.

Mientras que los centros de datos a menudo se asocian con las empresas y los proveedores de la nube a escala web, en realidad cualquier empresa puede tener un centro de datos. Para algunas PyMEs, el centro de datos podría ser una habitación ubicada en su espacio de oficina.

Para ayudar a los líderes de TI a entender qué tipo de infraestructura implementar, en 2005, el Instituto Nacional de Estándares Americanos (ANSI) y la Asociación de la Industria de Telecomunicaciones (TIA) publicaron estándares para centros de datos que definieron cuatro niveles discretos con diseño e implementación. Un centro de datos de nivel uno es básicamente una sala de servidores modificada, donde un centro de datos de nivel cuatro tiene los niveles más altos de confiabilidad y seguridad del sistema.

Futuras tecnologías de data center

Como ocurre con todas las tecnologías, los centros de datos están experimentando actualmente una transición significativa y el centro de datos de mañana se verá significativamente diferente del que la mayoría de las organizaciones están familiarizadas con el día de hoy.

Las empresas se están volviendo cada vez más dinámicas y distribuidas, lo que significa que la tecnología que potencia los centros de datos debe ser ágil y escalable. A medida que la virtualización del servidor se ha incrementado en popularidad, la cantidad de tráfico que se mueve lateralmente a través del centro de datos (Este-Oeste) ha empequeñecido el tráfico de servidor cliente tradicional, que se mueve dentro y fuera (Norte-Sur).

Esto está causando estragos en los administradores de centros de datos a medida que intentan satisfacer las demandas de esta era de TI. Pero a medida que la canción de Bachman Turner Overdrive va, “B-b-b-baby, simplemente no se ve n-n-nada aún”.

Aquí están las tecnologías clave que convertirán a los centros de datos de entornos estáticos y rígidos que están llevando a las empresas a instalaciones fluidas y ágiles capaces de satisfacer las demandas de una tecnología digital las nubes empresariales. Historicamente, las empresas tenían la opción de construir su propio centro de datos, utilizando un proveedor de hosting o un socio de servicio administrado. Esto cambió la propiedad y la economía del funcionamiento de un centro de datos, pero los largos plazos requeridos para desplegar y administrar la tecnología aún se mantienen. El surgimiento de Infraestructura como Servicio (IaaS) de proveedores en la nube como Amazon Web Services y Microsoft Azure da a las empresas una opción en la que pueden proporcionar un centro de datos virtual en la nube con sólo unos clics del ratón. Los datos de ZK Research muestran que más del 80% de las empresas están planificando entornos híbridos, lo que significa el uso de centros de datos privados y nubes públicas.

Networking definido por software (SDN)

Un negocio digital sólo puede ser tan ágil como su componente menos ágil. Y eso es a menudo la red. SDN puede aportar un nivel de dinamismo nunca antes experimentado. Infraestructura hiperconvertida (HCI, por sus siglas en inglés). Uno de los retos operacionales de los centros de datos es tener que combinar la mezcla adecuada de servidores, almacenamiento y redes para soportar aplicaciones exigentes.

Luego, una vez que se despliegue la infraestructura, las operaciones de TI necesitan averiguar cómo escalar rápidamente sin interrumpir la aplicación. HCI simplifica eso al proporcionar un dispositivo fácil de implementar, basado en hardware de productos básicos que puede escalar agregando más nodos al despliegue. Los primeros casos de uso de HCI giraban en torno a la virtualización de escritorios, pero recientemente se han expandido a otras aplicaciones empresariales como las comunicaciones unificadas y las bases de datos. El desarrollo de aplicaciones de contenedores a menudo se desacelera por el tiempo que se tarda en proporcionar la infraestructura en la que se ejecuta. Esto puede dificultar considerablemente la capacidad de una organización para pasar a un modelo de DevOps.

Los contenedores son un método de virtualización de todo un entorno de tiempo de ejecución que permite a los desarrolladores ejecutar aplicaciones y sus dependencias en un sistema autónomo. Los contenedores son muy ligeros y pueden ser creados y destruidos rápidamente, por lo que son ideales para probar cómo funcionan las aplicaciones en determinadas condiciones. La segmentación de los centros de datos tradicionales tienen toda la tecnología de seguridad en el núcleo, por lo que el tráfico se mueve en una dirección Norte-Sur, las herramientas de seguridad y protege el negocio. El aumento del tráfico Este-Oeste significa que el tráfico evita firewalls, sistemas de prevención de intrusiones y otros sistemas de seguridad y permite que el malware se propague rápidamente.

Microsegmentación es un método de creación de zonas seguras en un centro de datos donde los recursos pueden ser aislados entre sí por lo que si ocurre una violación, el daño se reduce al mínimo. Microsegmentation es típicamente hecho en software, por lo que es muy ágil.Non-volatile memory express (NVMe). Todo es más rápido en un mundo cada vez más digitalizado, lo que significa que los datos necesitan moverse más rápido. Los protocolos de almacenamiento tradicionales, tales como la interfaz del sistema informático pequeño (SCSI) y Advanced Technology Attachment (ATA), han existido durante décadas y están llegando a su límite.

NVMe es un protocolo de almacenamiento diseñado para acelerar la transferencia de información entre sistemas y unidades de estado sólido que mejora en gran medida las tasas de transferencia de datos. GPU (unidades de procesamiento de gráficos). Las unidades de procesamiento Central han alimentado la infraestructura del centro de datos durante décadas, pero la ley de Moore está llegando a una limitación física. Además, las nuevas cargas de trabajo, como la analítica, el aprendizaje automático y el IoT están impulsando la necesidad de un nuevo tipo de modelo de cálculo que supere lo que las CPU pueden hacer.

Las GPUs, una vez utilizadas sólo para juegos, funcionan fundamentalmente diferentes ya que son capaces de procesar muchos hilos en paralelo haciéndolos ideales para el centro de datos de un futuro no muy lejano. Los centros de datos siempre han sido críticos para el éxito de negocios de casi todos los tamaños, y eso no cambiará. Sin embargo, el número de formas de implementar un centro de datos y las tecnologías habilitadoras está experimentando un cambio radical. Para ayudar a construir una hoja de ruta hacia el futuro centro de datos, recuerde que el mundo se está volviendo cada vez más dinámico y distribuido. Las tecnologías que aceleran ese cambio son las que serán necesarias en el futuro. Aquellos que no lo harán probablemente permanecerán por un tiempo, pero serán cada vez menos importantes.

-Zeus Kerravala, Networld World

Leer más...



Google Drive dejará de existir para transformarse en dos versiones

Categorías relacionadas:
Almacenamiento, Aplicaciones, Cómo hacerlo, Cloud / Nube, Del día, Destacado, Lo más reciente, Lo más reciente, Nubes públicas y privadas, Seguridad, Seguridad, Virtualización

google-Drive-se-divide

liston-luto-nacionalGoogle anunció cambios respecto a su aplicación Drive, la cual se transformará y dividirá en dos nuevas propuestas denominadas Google Backup and Sync y Drive File Stream. 

De acuerdo con la empresa californiana, su servicio de almacenamiento de archivos en la nube tiene fecha de caducidad, más concretamente el próximo mes de marzo. Ya en diciembre –a partir del día 11– Google Drive dejará de estar disponible para ambientes de PC y Mac y su cierre completo llegará el 12 de marzo de 2018. 

A cambio, Google ofrece dos nuevas herramientas. Por un lado, los particulares dispondrán del servicio Google Backup and Sync y por otro, las empresas harán lo propio con el Drive File Stream. ¿En qué consiste cada uno?

Google Backup and Sync

Desde julio pasado la compañía empezó a introducir este servicio, que permite –una vez descargada la aplicación tanto en computadoras con Windows o MacOS– hacer una copia de seguridad de todos los archivos, carpetas, fotografías y videos alojados en la computadora. Algo muy similar a lo que hasta ahora hacía Drive.

Drive File Stream

En este caso se posibilita que aquellas cuentas que disponen de una G Suite, puedan acceder a sus archivos alojados en la nube, de manera rápida y sin necesidad de ocupar espacio en sus discos duros locales.

¿Cuándo llega?

Esta nueva herramienta estará disponible desde el 26 de septiembre, fecha cuando los usuarios de Drive empezarán a observar las novedades. 

Con estas nuevas propuestas, Google pretende centrar sus esfuerzos en dos plataformas mejoradas, evolucionando el servicio de almacenamiento en nube, un segmento que se está diversificando y ofreciendo cada día mejores propuestas de productos.

Leer más...



Reporte Especial – El Centro de Datos: la convergencia entre on site y cloud para impulsar el negocio

Categorías relacionadas:
Administración, Administración de proyectos, Administración de proyectos, Administración del riesgo, Almacenamiento, Aplicaciones, Aplicaciones, BI y analítica, BI y analítica, Big data, Cómo hacerlo, Centros de datos, Cloud / Nube, Cloud Computing, Energía, Escritorios, Estrategia CIO, Hipervisores, Infraestructura, Infraestructura, Inversiones, Lo más reciente, Lo más reciente, Mainframe, Mejores prácticas, Mejores prácticas, Monitoreo, Nubes públicas y privadas, Outsourcing, Principal, Recuperación, Reporte Especial, Reportes e investigaciones, SaaS, Seguridad, Servidores, Servidores, Tendencias, Tendencias, Virtualización

Reporte-especial-ilustracion

La digitalización del negocio es un paso obligatorio de la empresa, donde cada vez se adoptan más tecnologías disruptivas como Big Data, movilidad e incluso el Internet de las Cosas y la Inteligencia Artificial, haciendo que toda esta carga de procesos y generación de datos recaiga dentro de las operaciones TI y, específicamente, en el centro de datos. Esto obliga a las empresas a invertir en infraestructura y apoyarse en la nube.

Según una encuesta de IDC a líderes TI en las empresas, el 72% de ellos cree que la transformación digital y el crecimiento del negocio es la principal razón para modernizar su infraestructura TI. La consultora afirma que en los últimos tres años la nube híbrida maduró, mientras que las arquitecturas definidas por software y las infraestructuras hiperconvergentes han modificado el estado actual de la infraestructura de TI.

Sin duda la nube se ha convertido en una tendencia que ha crecido con la transformación digital, siendo un aliado para ofrecer agilidad al negocio. ¿Será el centro de datos híbrido el siguiente paso obligatorio? ¿Ya no es suficiente la TI tradicional?

Foto1-Arturo-Benavides-Dell-EMC

Arturo Benavides, Primary Storage Sales Director en Dell EMC Latinoamérica.

El reto es claro: o se modifican, se redefinen o están condenados a caer en el mercado. Al menos así lo consideró Arturo Benavides, Primary Storage Sales Director en Dell EMC Latinoamérica. “La transformación digital está obligando a todas las empresas a redefinirse y lo está haciendo a través de nuevas aplicaciones de negocio que son más nativas en cloud, apalancando la tercera plataforma. Para esto se tiene que iniciar modernizando las TI”, comentó.

Según un estudio realizado por esta compañía –en el cual se entrevistó a los CIO de 3,000 organizaciones alrededor del mundo– un 45% tiene claro que si no adoptan la transformación digital (conocida también por las siglas DX),  estarán fuera del mercado en un plazo de unos tres años. Sólo un 5% de los entrevistados ya había definido una estrategia de DX, 12% se encuentra trabajando un modelo muy tradicional, y 42% están empezando a tomar iniciativas de transformación.

Convergencia entre On site y cloud

Por su parte, la firma de consultoría Gartner reconoce la necesidad de alinear iniciativas TI para impulsar el valor de negocio a través del desarrollo ágil, la convergencia de tecnología e infraestructura, y la modernización, automatización y migración a plataformas en la nube. “Los encargados de infraestructura y operaciones, así como sus equipos de trabajo, deben garantizar que los sistemas existentes sean confiables mientras implementan los cambios necesarios para sustentar las nuevas cargas de trabajo”, aseveró Federico De Silva León, Director de Investigación de Gartner.

Foto2-Federico-De-Silva-Gartner

Federico De Silva León, Director de Investigación de Gartner.

Para HPE, la transformación digital de los negocios se trata de un paso obligatorio que, en definitiva, tocará cada una de las empresas en México y el mundo, donde la perfecta convergencia entre on site y cloud jugará un papel protagónico. “Esto claramente impacta en el centro de datos y la nube. En HPE creemos que vamos a vivir en un mundo híbrido”, puntualizó Alejandro Lomelín, Director de Ventas para Soluciones de Data Center para Hewlett Packard Enterprise (HPE).

Dijo que la compañía tiene tres primicias al respecto: 1) el mundo será híbrido con in house y cloud; 2) la periferia que hoy genera tráfico en la red y datos van a apalancar la generación de aplicaciones; y 3) se transformará el modo en que se entregan este tipo de tecnología, que en HPE se cree será a través de servicios. “Debemos ver las cargas que realmente se necesiten llevar a la nube, cuáles podemos comprar como servicios y cuáles aún tienen que vivir en el centro de datos”, aseveró Lomelín.

Foto3-Alejandro-Lomelin-HPE

Alejandro Lomelín, Director de Ventas para Soluciones de Data Center para Hewlett Packard Enterprise (HPE).

Dell EMC ofrece un modelo similar para llevar el negocio hacia la digitalización aplicando mejoras en el centro de datos y la nube, al que han denominado MAT (Modernizar, Automatizar y Transformar). Con este modelo ayudan a las empresas a entender qué se debe modernizar en las TI, cómo se pueden automatizar los procesos en el centro de datos y transformar a la gente.

Para Adrián Simg, Data Center Group Executive de Lenovo, lograr la convergencia perfecta entre el centro de datos y cloud es un proceso completo de transformación que va más allá de proveer una mejora en infraestructura física. “No sólo se trata del fierro, el almacenamiento y el procedimiento, se trata de cómo hago uso de todo ello, para lo cual se requiere software y personas”, comentó Simg.

Principales obstáculos

Lograr tal convergencia parece no ser una tarea sencilla. Al respecto, Gartner señala que uno de los principales retos a los que se enfrenta el CIO tiene que ver con la administración de presupuestos TI de modo eficaz. Según una encuesta de la consultora, este 2017 la segunda prioridad para CIOs en América Latina tiene que ver con modernización de Infraestructura y operaciones (mencionado por el 32% de sus encuestados).

Sin embargo, los presupuestos han sido recortados. Las empresas deben entender que no sólo se trata de recortar presupuestos, sino de generar valor y tratar las inversiones TI como activos, no como gastos. “Las organizaciones de TI que quieren ser exitosas en el futuro deberán poner el eje no sólo en la tecnología, sino también en los resultados de negocio”, comentó De Silva León, de Gartner.

Hacia dónde se destinará la inversión

Para Dell EMC, si bien la cuestión de presupuestos parece un obstáculo ahora, hacer el esfuerzo por invertir en modernización trae a la empresa beneficios no sólo en costos, sino en productividad del personal, redireccionando esfuerzos a resultados. “Al modernizar se obtienen ahorros significativos en operación y automatización. Estos ahorros los inviertes ahora en investigación, desarrollo e innovación, permitiendo hacer el circulo virtuoso de lo que es la transformación digital”, aseveró Arturo Benavides.

Foto5-Marco-Damian-Panduit

Marco Damián, Gerente de Mercado Financiero de Panduit.

Esto es lo que permite vislumbrar un mercado prometedor en México. “Vemos que la inversión en general de centros de datos en el país crecerá alrededor del 10% en forma anual por lo menos por los siguientes cinco años”, aseveró Marco Damián, Gerente de Mercado Financiero de Panduit. Agregó que muchos centros de datos han crecido bajo demanda, es decir, conforme han surgido las necesidades. “El área de oportunidad que vislumbramos es que este crecimiento por parte de los usuarios se realice en forma estructurada y ágil, destinando importantes recursos para optimizar la parte de energía y enfriamiento en el centro de datos”.

Y por lo que respecta a los proveedores de servicios, las expectativas de crecimiento parecen fundamentarse en soluciones a la medida. “Un elemento importante es ofrecer todo bajo servicio, es decir, no nada más la infraestructura, las aplicaciones o el software sino todos los componentes bajo un modelo integrado con el centro de datos”, resaltó Ricardo Rentería, Director General de Amazon Web Services en México.

De acuerdo con el directivo, esto significa ofrecer soluciones de ERP, web o almacenamiento que pueden ser integradas bajo el concepto de cloud, aportando características de elasticidad y facturación por minuto/hora con los conceptos de los centros de datos actuales. “Esto garantiza la extensión de las inversiones que los clientes ya tienen, incorporando la innovación que ofrece cloud”, señaló Rentería.

Otro de los proveedores de infraestructura en este sector, Intel, busca habilitar nuevos modelos de negocio para entregar servicios más personalizados y orientados hacia un sector o empresa en específico, de manera “que al proveedor de nube le dé una ganancia adicional y al usuario una mejora en la experiencia, así como un modelo de negocio más ajustado a lo que necesita”, explicó Pedro Cerecer, Director de Cloud Service Providers para Intel Américas.

Dijo que la inversión en los centros de datos se debería enfocar hacia dos grandes rubros: un cambio completo en la cultura organizacional (“más ágil, rápida y abierta en cuanto a dónde se genera la información para tomar decisiones”) y hacia una plataforma digital, en la cual intervenga la toma de decisiones informada (con base en Big Data), a partir de muchas fuentes (Internet de las Cosas), con plataformas que mantengan la confianza que ha ganado la empresa con sus clientes, “y que sea un centro de trabajo con pensamiento innovador que genere una experiencia continua hacia el cliente con interacción 7×24”, explicó Cerecer.

Foto-Pedro-Cerecer-Intel

Pedro Cerecer, Director de Cloud Service Providers para Intel Américas.

Por su parte, Rodolfo Montes de Oca Ruiz, Ingeniero de Preventa de Veeam, afirmó que, de acuerdo con una encuesta aplicada a nivel mundial, en México el 60% de las organizaciones que están invirtiendo en plataformas de Software o en Infraestructura como Servicio, o bien, planean hacerlo en los próximos 12 meses. Este porcentaje es significativo, ya que duplica el promedio de inversión en estos rubros declarado a nivel global. Montes de Oca agregó que su empresa ofrece disponibilidad para el centro de datos moderno, “con tiempos de recuperación menores a 15 minutos para cualquier organización, independientemente de dónde se encuentre su nube”.

Ofrecer este tipo de garantías puede asegurar “una larga vida” al centro de datos. De hecho, información proporcionada por Furukawa Electric, empresa dedicada al sector de telecomunicaciones, energía y electrónica, señala que el 76% de los datos que existen a nivel mundial residen dentro de un data center (DC), un 17% se encuentran entre el DC y el usuario, y el 5% restante interactúan entre varios centros de datos. “Además, hay muchas cosas que cambiarán en el ámbito de los data centers: la descentralización de la nube, la distribución de contenido más cercana al usuario, y datacenters distribuidos con ancho de banda hiperescalables con velocidades de 200 y 400 gigas”, advirtió Germano Alves Da Costa, Ingeniero de Data Center en Furukawa Electric.

Seguridad, control de riesgos y backup

No obstante lo anterior, aún persiste una falta de conciencia respecto a la seguridad de los datos y los sistemas, al menos esa es la perspectiva de Alejandro Lomelín, de HPE, quien aseguró que en las empresas debería haber un mejor manejo de la información y una mejor gobernabilidad. “La información debería vivir en dispositivos muy seguros que no sean vulnerados ni por externos ni por empleados mal intencionados”.

Y es que al producirse mayor cantidad de datos y procesos se generan mayores densidades de calor en diferentes áreas de las salas que alberga el centro de datos. “Es necesario entonces un adecuado sistema de enfriamiento que permita la continuidad del negocio, evitando caídas de sistemas provocadas por el sobrecalentamiento de los equipos”, dijo Alejandro Sánchez, Director Comercial de Stulz México.

Foto6-Ricardo-Rentenria-AWS

Ricardo Rentería, Director General de Amazon Web Services en México.

Para lograr lo anterior, recomendó nivelar la carga de energía en todo el centro de datos, estableciendo zonas de baja, media y alta densidad para así enfocar los diferentes niveles de esfuerzos en esas zonas para el suministro del aire acondicionado. “Es un hecho que hoy día estamos viendo una tendencia creciente a que todos los servicios sean a través de la nube y para esto todos los componentes, incluidos los sistemas de enfriamiento, deben estar preparados”, resaltó Sánchez.

Por otra parte, las certificaciones de seguridad juegan un papel importante en esta transformación, especialmente al momento de seleccionar un proveedor de servicios de nube, para que éste garantice que los datos no se van a ver comprometidos, ni mis procesos detenidos. “Existen diferentes niveles de certificación, dando un nivel de confiabilidad que depende de que, en caso de que suceda algo, cuánto tiempo me tardo en recuperar esa continuidad. Entre menos tiempo me tarde, un nivel de certificación más alto se obtiene”, aseguró Eurídice Ibarlucea, Especialista en sistemas de supresión de incendios en Victaulic.

Foto7-Rodolfo-Montes-de-Oca-Veeam

Rodolfo Montes de Oca Ruiz, Ingeniero de Preventa de Veeam.

El papel del CIO en este proceso

Gartner reconoce la importancia de destacar el papel del CIO en este proceso y la necesidad de transformar el rol que ejerce dentro del área TI, pasando de ser simples gerentes a convertirse en asesores confiables de los CEO. Según esta firma consultora, deben estar conscientes de que aquellas habilidades que les permitieron llegar a su puesto no necesariamente los llevarán al siguiente nivel.

“Si bien la tecnología siempre será importante, no es lo único ni lo primordial para el CIO, dado que las personas y los procesos de operación de TI resultan tanto o más importante en este proceso”, afirmó Silva León, de Gartner.

Foto8-German-Alves-Furukawa

Germano Alves Da Costa, Ingeniero de Data Center en Furukawa Electric.

Se trata de una primicia compartida también por HPE: “Queremos empoderar a este personaje de tecnología, al área de Sistemas, para que se vuelva un bróker de estos servicios y tenga cierta gobernabilidad de todo el proceso”, comentó Lomelín.

Los CIO deben entender que su papel está cambiando, que se están convirtiendo en habilitadores de servicios, y deben entender que la TI es el medio para lograr que las aplicaciones de negocio trabajen de un modo más eficiente, rentable y seguras, y deben asegurarse de tener las herramientas para poder orquestar el movimiento de la información, de acuerdo con Benavides, de Dell EMC.

Innovación en Data center, un paso obligatorio

Gartner destaca la necesidad de aumentar la influencia mediante innovación, con la construcción de sistemas de TI ágiles y definidos por software, así como detectar comportamientos anormales para monitorear, gestionar, medir, asegurar y alertar; automatizar la toma de decisiones a partir de datos, y unirse a la economía de las API.

Foto9-Alejandro-Sanchez-Stultz

Alejandro Sánchez, Director Comercial de Stulz México.

Si bien el cloud computing es una solución que llegó para quedarse al ofrecer muchas ventajas para el negocio, el centro de datos no va a desaparecer, al menos así lo consideró Adrián Simg, de Lenovo. “No creo que una empresa vaya a una nube al 100%. Siempre existirá un equilibrio entre el centro de datos y cloud, si bien puede haber más procesamiento o almacenamiento en la nube, pero el centro de datos jamás dejará de existir”, afirmó.

Es por ello que las empresas no deben dejar este importante proceso de actualización de su infraestructura on site de lado, a través de una serie de herramientas, productos y servicios que les ayuden a efientar el data center.

“La optimización de todo lo que tienes en el centro de datos es algo que no va a parar. Pero los ingredientes adicionales que se le ponen al centro de datos para amalgamar este proceso serán la clave”, aseguró Alejandro Lomelín, de HPE.

Uno de los avances más significativos en este aspecto es el almacenamiento, que ha pasado del tradicional gran gabinete lleno de discos duros giratorios que generaban mucho ruido, ocupaban gran espacio y consumían altos niveles de electricidad, al almacenamiento flash que no genera ruido, disminuye en gran medida la generación de calor y consumen mucho menos electricidad. Hoy en día son drives con mucha más capacidad en menos espacios. Además, ayuda a reducir costos operativos, eficientizar la administración generando un centro de datos verde.

Foto10-Euridice-Ibarlucea-Victaulic

Eurídice Ibarlucea, Especialista en sistemas de supresión de incendios en Victaulic.

Otras de las innovaciones que se han dado en los últimos años a fin de robustecer la infraestructura para el centro de datos tiene que ver con sus sistemas de supresión de incendios, pasando de sistema tradicional de chorros de agua o químicos que suelen ser dañinos para el ambiente y las personas, a sistemas híbridos.

Estos sistemas híbridos combinan nitrógeno (un gas inerte que no acelera el calentamiento global), con micromoléculas de agua para generar una emulsión que no produce humedad residual, permitiendo proteger el centro de datos y áreas críticas, sin interrumpir las actividades del mismo.

Si se comparan los sistemas tradicionales a chorro de agua –que requieren procedimientos más complejos como almacenamiento de agua, bombas, rociadores y otra clase de infraestructura pesada–, los sistemas híbridos sólo necesitan de un almacenamiento reducido de agua y nitrógeno conectado a tuberías de áreas críticas que se están protegiendo. Además, el costo por toda la infraestructura que debe sobrellevar es mucho menor.

“Si se nos cae el sistema, estás dejando de vender, estás perdiendo confiabilidad y clientes. Una vez que pierdes un cliente estás perdiendo negocio, participación de mercado, y otra serie de grandes pérdidas intangibles, pero que a veces tienen más valor que el monetario, incluso estamos hablando de cosas irreemplazables”, puntualizó Eurídice Ibarlucea, de Victaulic.

Esta nueva alternativa es amigable con el medio ambiente, al mismo tiempo que protege los activos que se están resguardando, evitando que se detenga la transmisión de datos, avalando la continuidad del negocio y operaciones.

Para finalizar, Stulz recomendó contar con una plataforma de DCIM (Data Center Infrastructure Management) que permita tener una completa visibilidad y administración de toda la infraestructura física, y no sólo la parte del enfriamiento.

Por su parte, Ricardo Rentería, de AWS, aseveró que todavía veremos la integración entre ambientes site y cloud por algunos años más, “debido a que hay una fuerte inversión en centros de datos locales en México, ya sean propios o por contratos de outsourcing o hosting.

“En lo que las empresas hacen un ciclo completo de proyecto, capacitación, habilitación, definición de estrategias hasta llegar a un cloud natural, veremos una etapa de transición de por lo menos dos años. Tras ese periodo, veremos compañías que ya harán cloud al 100%”, concluyó Rentería.

Por Karina Rodríguez y José Luis Becerra

Leer más...