Reporte Especial – El Centro de Datos: la convergencia entre on site y cloud para impulsar el negocio

Categorías relacionadas:
Administración, Administración de proyectos, Administración de proyectos, Administración del riesgo, Almacenamiento, Aplicaciones, Aplicaciones, BI y analítica, BI y analítica, Big data, Cómo hacerlo, Centros de datos, Cloud / Nube, Cloud Computing, Energía, Escritorios, Estrategia CIO, Hipervisores, Infraestructura, Infraestructura, Inversiones, Lo más reciente, Lo más reciente, Mainframe, Mejores prácticas, Mejores prácticas, Monitoreo, Nubes públicas y privadas, Outsourcing, Principal, Recuperación, Reporte Especial, Reportes e investigaciones, SaaS, Seguridad, Servidores, Servidores, Tendencias, Tendencias, Virtualización

Reporte-especial-ilustracion

La digitalización del negocio es un paso obligatorio de la empresa, donde cada vez se adoptan más tecnologías disruptivas como Big Data, movilidad e incluso el Internet de las Cosas y la Inteligencia Artificial, haciendo que toda esta carga de procesos y generación de datos recaiga dentro de las operaciones TI y, específicamente, en el centro de datos. Esto obliga a las empresas a invertir en infraestructura y apoyarse en la nube.

Según una encuesta de IDC a líderes TI en las empresas, el 72% de ellos cree que la transformación digital y el crecimiento del negocio es la principal razón para modernizar su infraestructura TI. La consultora afirma que en los últimos tres años la nube híbrida maduró, mientras que las arquitecturas definidas por software y las infraestructuras hiperconvergentes han modificado el estado actual de la infraestructura de TI.

Sin duda la nube se ha convertido en una tendencia que ha crecido con la transformación digital, siendo un aliado para ofrecer agilidad al negocio. ¿Será el centro de datos híbrido el siguiente paso obligatorio? ¿Ya no es suficiente la TI tradicional?

Foto1-Arturo-Benavides-Dell-EMC

Arturo Benavides, Primary Storage Sales Director en Dell EMC Latinoamérica.

El reto es claro: o se modifican, se redefinen o están condenados a caer en el mercado. Al menos así lo consideró Arturo Benavides, Primary Storage Sales Director en Dell EMC Latinoamérica. “La transformación digital está obligando a todas las empresas a redefinirse y lo está haciendo a través de nuevas aplicaciones de negocio que son más nativas en cloud, apalancando la tercera plataforma. Para esto se tiene que iniciar modernizando las TI”, comentó.

Según un estudio realizado por esta compañía –en el cual se entrevistó a los CIO de 3,000 organizaciones alrededor del mundo– un 45% tiene claro que si no adoptan la transformación digital (conocida también por las siglas DX),  estarán fuera del mercado en un plazo de unos tres años. Sólo un 5% de los entrevistados ya había definido una estrategia de DX, 12% se encuentra trabajando un modelo muy tradicional, y 42% están empezando a tomar iniciativas de transformación.

Convergencia entre On site y cloud

Por su parte, la firma de consultoría Gartner reconoce la necesidad de alinear iniciativas TI para impulsar el valor de negocio a través del desarrollo ágil, la convergencia de tecnología e infraestructura, y la modernización, automatización y migración a plataformas en la nube. “Los encargados de infraestructura y operaciones, así como sus equipos de trabajo, deben garantizar que los sistemas existentes sean confiables mientras implementan los cambios necesarios para sustentar las nuevas cargas de trabajo”, aseveró Federico De Silva León, Director de Investigación de Gartner.

Foto2-Federico-De-Silva-Gartner

Federico De Silva León, Director de Investigación de Gartner.

Para HPE, la transformación digital de los negocios se trata de un paso obligatorio que, en definitiva, tocará cada una de las empresas en México y el mundo, donde la perfecta convergencia entre on site y cloud jugará un papel protagónico. “Esto claramente impacta en el centro de datos y la nube. En HPE creemos que vamos a vivir en un mundo híbrido”, puntualizó Alejandro Lomelín, Director de Ventas para Soluciones de Data Center para Hewlett Packard Enterprise (HPE).

Dijo que la compañía tiene tres primicias al respecto: 1) el mundo será híbrido con in house y cloud; 2) la periferia que hoy genera tráfico en la red y datos van a apalancar la generación de aplicaciones; y 3) se transformará el modo en que se entregan este tipo de tecnología, que en HPE se cree será a través de servicios. “Debemos ver las cargas que realmente se necesiten llevar a la nube, cuáles podemos comprar como servicios y cuáles aún tienen que vivir en el centro de datos”, aseveró Lomelín.

Foto3-Alejandro-Lomelin-HPE

Alejandro Lomelín, Director de Ventas para Soluciones de Data Center para Hewlett Packard Enterprise (HPE).

Dell EMC ofrece un modelo similar para llevar el negocio hacia la digitalización aplicando mejoras en el centro de datos y la nube, al que han denominado MAT (Modernizar, Automatizar y Transformar). Con este modelo ayudan a las empresas a entender qué se debe modernizar en las TI, cómo se pueden automatizar los procesos en el centro de datos y transformar a la gente.

Para Adrián Simg, Data Center Group Executive de Lenovo, lograr la convergencia perfecta entre el centro de datos y cloud es un proceso completo de transformación que va más allá de proveer una mejora en infraestructura física. “No sólo se trata del fierro, el almacenamiento y el procedimiento, se trata de cómo hago uso de todo ello, para lo cual se requiere software y personas”, comentó Simg.

Principales obstáculos

Lograr tal convergencia parece no ser una tarea sencilla. Al respecto, Gartner señala que uno de los principales retos a los que se enfrenta el CIO tiene que ver con la administración de presupuestos TI de modo eficaz. Según una encuesta de la consultora, este 2017 la segunda prioridad para CIOs en América Latina tiene que ver con modernización de Infraestructura y operaciones (mencionado por el 32% de sus encuestados).

Sin embargo, los presupuestos han sido recortados. Las empresas deben entender que no sólo se trata de recortar presupuestos, sino de generar valor y tratar las inversiones TI como activos, no como gastos. “Las organizaciones de TI que quieren ser exitosas en el futuro deberán poner el eje no sólo en la tecnología, sino también en los resultados de negocio”, comentó De Silva León, de Gartner.

Hacia dónde se destinará la inversión

Para Dell EMC, si bien la cuestión de presupuestos parece un obstáculo ahora, hacer el esfuerzo por invertir en modernización trae a la empresa beneficios no sólo en costos, sino en productividad del personal, redireccionando esfuerzos a resultados. “Al modernizar se obtienen ahorros significativos en operación y automatización. Estos ahorros los inviertes ahora en investigación, desarrollo e innovación, permitiendo hacer el circulo virtuoso de lo que es la transformación digital”, aseveró Arturo Benavides.

Foto5-Marco-Damian-Panduit

Marco Damián, Gerente de Mercado Financiero de Panduit.

Esto es lo que permite vislumbrar un mercado prometedor en México. “Vemos que la inversión en general de centros de datos en el país crecerá alrededor del 10% en forma anual por lo menos por los siguientes cinco años”, aseveró Marco Damián, Gerente de Mercado Financiero de Panduit. Agregó que muchos centros de datos han crecido bajo demanda, es decir, conforme han surgido las necesidades. “El área de oportunidad que vislumbramos es que este crecimiento por parte de los usuarios se realice en forma estructurada y ágil, destinando importantes recursos para optimizar la parte de energía y enfriamiento en el centro de datos”.

Y por lo que respecta a los proveedores de servicios, las expectativas de crecimiento parecen fundamentarse en soluciones a la medida. “Un elemento importante es ofrecer todo bajo servicio, es decir, no nada más la infraestructura, las aplicaciones o el software sino todos los componentes bajo un modelo integrado con el centro de datos”, resaltó Ricardo Rentería, Director General de Amazon Web Services en México.

De acuerdo con el directivo, esto significa ofrecer soluciones de ERP, web o almacenamiento que pueden ser integradas bajo el concepto de cloud, aportando características de elasticidad y facturación por minuto/hora con los conceptos de los centros de datos actuales. “Esto garantiza la extensión de las inversiones que los clientes ya tienen, incorporando la innovación que ofrece cloud”, señaló Rentería.

Otro de los proveedores de infraestructura en este sector, Intel, busca habilitar nuevos modelos de negocio para entregar servicios más personalizados y orientados hacia un sector o empresa en específico, de manera “que al proveedor de nube le dé una ganancia adicional y al usuario una mejora en la experiencia, así como un modelo de negocio más ajustado a lo que necesita”, explicó Pedro Cerecer, Director de Cloud Service Providers para Intel Américas.

Dijo que la inversión en los centros de datos se debería enfocar hacia dos grandes rubros: un cambio completo en la cultura organizacional (“más ágil, rápida y abierta en cuanto a dónde se genera la información para tomar decisiones”) y hacia una plataforma digital, en la cual intervenga la toma de decisiones informada (con base en Big Data), a partir de muchas fuentes (Internet de las Cosas), con plataformas que mantengan la confianza que ha ganado la empresa con sus clientes, “y que sea un centro de trabajo con pensamiento innovador que genere una experiencia continua hacia el cliente con interacción 7×24”, explicó Cerecer.

Foto-Pedro-Cerecer-Intel

Pedro Cerecer, Director de Cloud Service Providers para Intel Américas.

Por su parte, Rodolfo Montes de Oca Ruiz, Ingeniero de Preventa de Veeam, afirmó que, de acuerdo con una encuesta aplicada a nivel mundial, en México el 60% de las organizaciones que están invirtiendo en plataformas de Software o en Infraestructura como Servicio, o bien, planean hacerlo en los próximos 12 meses. Este porcentaje es significativo, ya que duplica el promedio de inversión en estos rubros declarado a nivel global. Montes de Oca agregó que su empresa ofrece disponibilidad para el centro de datos moderno, “con tiempos de recuperación menores a 15 minutos para cualquier organización, independientemente de dónde se encuentre su nube”.

Ofrecer este tipo de garantías puede asegurar “una larga vida” al centro de datos. De hecho, información proporcionada por Furukawa Electric, empresa dedicada al sector de telecomunicaciones, energía y electrónica, señala que el 76% de los datos que existen a nivel mundial residen dentro de un data center (DC), un 17% se encuentran entre el DC y el usuario, y el 5% restante interactúan entre varios centros de datos. “Además, hay muchas cosas que cambiarán en el ámbito de los data centers: la descentralización de la nube, la distribución de contenido más cercana al usuario, y datacenters distribuidos con ancho de banda hiperescalables con velocidades de 200 y 400 gigas”, advirtió Germano Alves Da Costa, Ingeniero de Data Center en Furukawa Electric.

Seguridad, control de riesgos y backup

No obstante lo anterior, aún persiste una falta de conciencia respecto a la seguridad de los datos y los sistemas, al menos esa es la perspectiva de Alejandro Lomelín, de HPE, quien aseguró que en las empresas debería haber un mejor manejo de la información y una mejor gobernabilidad. “La información debería vivir en dispositivos muy seguros que no sean vulnerados ni por externos ni por empleados mal intencionados”.

Y es que al producirse mayor cantidad de datos y procesos se generan mayores densidades de calor en diferentes áreas de las salas que alberga el centro de datos. “Es necesario entonces un adecuado sistema de enfriamiento que permita la continuidad del negocio, evitando caídas de sistemas provocadas por el sobrecalentamiento de los equipos”, dijo Alejandro Sánchez, Director Comercial de Stulz México.

Foto6-Ricardo-Rentenria-AWS

Ricardo Rentería, Director General de Amazon Web Services en México.

Para lograr lo anterior, recomendó nivelar la carga de energía en todo el centro de datos, estableciendo zonas de baja, media y alta densidad para así enfocar los diferentes niveles de esfuerzos en esas zonas para el suministro del aire acondicionado. “Es un hecho que hoy día estamos viendo una tendencia creciente a que todos los servicios sean a través de la nube y para esto todos los componentes, incluidos los sistemas de enfriamiento, deben estar preparados”, resaltó Sánchez.

Por otra parte, las certificaciones de seguridad juegan un papel importante en esta transformación, especialmente al momento de seleccionar un proveedor de servicios de nube, para que éste garantice que los datos no se van a ver comprometidos, ni mis procesos detenidos. “Existen diferentes niveles de certificación, dando un nivel de confiabilidad que depende de que, en caso de que suceda algo, cuánto tiempo me tardo en recuperar esa continuidad. Entre menos tiempo me tarde, un nivel de certificación más alto se obtiene”, aseguró Eurídice Ibarlucea, Especialista en sistemas de supresión de incendios en Victaulic.

Foto7-Rodolfo-Montes-de-Oca-Veeam

Rodolfo Montes de Oca Ruiz, Ingeniero de Preventa de Veeam.

El papel del CIO en este proceso

Gartner reconoce la importancia de destacar el papel del CIO en este proceso y la necesidad de transformar el rol que ejerce dentro del área TI, pasando de ser simples gerentes a convertirse en asesores confiables de los CEO. Según esta firma consultora, deben estar conscientes de que aquellas habilidades que les permitieron llegar a su puesto no necesariamente los llevarán al siguiente nivel.

“Si bien la tecnología siempre será importante, no es lo único ni lo primordial para el CIO, dado que las personas y los procesos de operación de TI resultan tanto o más importante en este proceso”, afirmó Silva León, de Gartner.

Foto8-German-Alves-Furukawa

Germano Alves Da Costa, Ingeniero de Data Center en Furukawa Electric.

Se trata de una primicia compartida también por HPE: “Queremos empoderar a este personaje de tecnología, al área de Sistemas, para que se vuelva un bróker de estos servicios y tenga cierta gobernabilidad de todo el proceso”, comentó Lomelín.

Los CIO deben entender que su papel está cambiando, que se están convirtiendo en habilitadores de servicios, y deben entender que la TI es el medio para lograr que las aplicaciones de negocio trabajen de un modo más eficiente, rentable y seguras, y deben asegurarse de tener las herramientas para poder orquestar el movimiento de la información, de acuerdo con Benavides, de Dell EMC.

Innovación en Data center, un paso obligatorio

Gartner destaca la necesidad de aumentar la influencia mediante innovación, con la construcción de sistemas de TI ágiles y definidos por software, así como detectar comportamientos anormales para monitorear, gestionar, medir, asegurar y alertar; automatizar la toma de decisiones a partir de datos, y unirse a la economía de las API.

Foto9-Alejandro-Sanchez-Stultz

Alejandro Sánchez, Director Comercial de Stulz México.

Si bien el cloud computing es una solución que llegó para quedarse al ofrecer muchas ventajas para el negocio, el centro de datos no va a desaparecer, al menos así lo consideró Adrián Simg, de Lenovo. “No creo que una empresa vaya a una nube al 100%. Siempre existirá un equilibrio entre el centro de datos y cloud, si bien puede haber más procesamiento o almacenamiento en la nube, pero el centro de datos jamás dejará de existir”, afirmó.

Es por ello que las empresas no deben dejar este importante proceso de actualización de su infraestructura on site de lado, a través de una serie de herramientas, productos y servicios que les ayuden a efientar el data center.

“La optimización de todo lo que tienes en el centro de datos es algo que no va a parar. Pero los ingredientes adicionales que se le ponen al centro de datos para amalgamar este proceso serán la clave”, aseguró Alejandro Lomelín, de HPE.

Uno de los avances más significativos en este aspecto es el almacenamiento, que ha pasado del tradicional gran gabinete lleno de discos duros giratorios que generaban mucho ruido, ocupaban gran espacio y consumían altos niveles de electricidad, al almacenamiento flash que no genera ruido, disminuye en gran medida la generación de calor y consumen mucho menos electricidad. Hoy en día son drives con mucha más capacidad en menos espacios. Además, ayuda a reducir costos operativos, eficientizar la administración generando un centro de datos verde.

Foto10-Euridice-Ibarlucea-Victaulic

Eurídice Ibarlucea, Especialista en sistemas de supresión de incendios en Victaulic.

Otras de las innovaciones que se han dado en los últimos años a fin de robustecer la infraestructura para el centro de datos tiene que ver con sus sistemas de supresión de incendios, pasando de sistema tradicional de chorros de agua o químicos que suelen ser dañinos para el ambiente y las personas, a sistemas híbridos.

Estos sistemas híbridos combinan nitrógeno (un gas inerte que no acelera el calentamiento global), con micromoléculas de agua para generar una emulsión que no produce humedad residual, permitiendo proteger el centro de datos y áreas críticas, sin interrumpir las actividades del mismo.

Si se comparan los sistemas tradicionales a chorro de agua –que requieren procedimientos más complejos como almacenamiento de agua, bombas, rociadores y otra clase de infraestructura pesada–, los sistemas híbridos sólo necesitan de un almacenamiento reducido de agua y nitrógeno conectado a tuberías de áreas críticas que se están protegiendo. Además, el costo por toda la infraestructura que debe sobrellevar es mucho menor.

“Si se nos cae el sistema, estás dejando de vender, estás perdiendo confiabilidad y clientes. Una vez que pierdes un cliente estás perdiendo negocio, participación de mercado, y otra serie de grandes pérdidas intangibles, pero que a veces tienen más valor que el monetario, incluso estamos hablando de cosas irreemplazables”, puntualizó Eurídice Ibarlucea, de Victaulic.

Esta nueva alternativa es amigable con el medio ambiente, al mismo tiempo que protege los activos que se están resguardando, evitando que se detenga la transmisión de datos, avalando la continuidad del negocio y operaciones.

Para finalizar, Stulz recomendó contar con una plataforma de DCIM (Data Center Infrastructure Management) que permita tener una completa visibilidad y administración de toda la infraestructura física, y no sólo la parte del enfriamiento.

Por su parte, Ricardo Rentería, de AWS, aseveró que todavía veremos la integración entre ambientes site y cloud por algunos años más, “debido a que hay una fuerte inversión en centros de datos locales en México, ya sean propios o por contratos de outsourcing o hosting.

“En lo que las empresas hacen un ciclo completo de proyecto, capacitación, habilitación, definición de estrategias hasta llegar a un cloud natural, veremos una etapa de transición de por lo menos dos años. Tras ese periodo, veremos compañías que ya harán cloud al 100%”, concluyó Rentería.

Por Karina Rodríguez y José Luis Becerra

Leer más...



¿Qué aporta Linux a la infraestructura y a las redes de centros de datos?

Categorías relacionadas:
Cómo hacerlo, Centros de datos, Destacado, Infraestructura, Infraestructura, Lo más reciente, Lo más reciente, Mainframe, Servidores, Servidores, Sistemas operativos, Software empresarial, Virtualización

linux-centros-de-datos

Linux es un sistema operativo de código abierto lanzado en 1991 para computadoras, pero su uso se ha extendido a teléfonos, automóviles, servidores web y, más recientemente, equipos de redes.

Su longevidad, madurez y seguridad lo convierten en uno de los sistemas operativos más confiables en la actualidad, lo que significa que es ideal para dispositivos de red comerciales, así como para empresas que quieran utilizarlo para personalizar su infraestructura de redes y centros de datos.

Esto a su vez hace que las habilidades de Linux sean muy buscadas por los gerentes de contratación de TI. Muchas de las nuevas tecnologías asociadas con DevOps, por ejemplo, contenedores, infraestructura OpenSource y controladores SDN están basadas en Linux.

Entonces, ¿qué es Linux?

Linux, un sistema operativo similar al Unix, se distribuye bajo licencias de código abierto, lo que significa que las siguientes reglas se aplican y lo hacen atractivo para las empresas:

Es un sistema operativo de libre ejecución.

Los administradores pueden personalizarlo para fines específicos.

Ofrece privilegios de redistribución ilimitados de las versiones originales o modificadas del sistema operativo.

El sistema operativo Linux se compone de:

Núcleo: envía instrucciones a la CPU, periféricos y memoria.

Bootloader: los procesos que gestionan el arranque del sistema. En una computadora, el usuario reconocería esto por la pantalla de bienvenida que estaba arriba. En un dispositivo de red hay un estado que indica el proceso de arranque.

Daemons: servicios en segundo plano que comienzan en el momento del arranque o después de que el sistema está completamente activo.

Shell: es la línea de comandos de Linux. Puede ser intimidante para las personas que están acostumbradas a trabajar en ambientes gráficos, pero la mayoría de los profesionales de la red están acostumbrados a operar en una shell.

Además de la shell, los servidores Linux también tienen un entorno de escritorio gráfico y aplicaciones que se ejecutan en la parte superior de la misma. Hay algunas aplicaciones de red para Linux, como el análisis de tráfico, seguridad y administración de redes, que también tienen interfaces gráficas, pero son mucho menos numerosas que las de servidores y escritorios.

Fundación para el engranaje comercial

En realidad, las interfaces de línea de comandos (CLI) que la mayoría de los administradores de red utilizan hoy para configurar enrutadores y conmutadores de su proveedor de red favorito son versiones altamente personalizadas de Linux con interfaces específicas de proveedores que se ejecutan encima de ellas. El desafío con esto es que las habilidades necesarias para trabajar con ellos no son muy portátiles de vendedor a vendedor. Un ingeniero muy competente que trabaja con Cisco IOS probablemente no podría trabajar con Junos de Juniper porque cada uno incluye su propia capa de abstracción diferente que se encuentra encima del código puro de Linux.

En vez de trabajar mediante una capa de abstracción, Linux proporciona acceso directo a las tablas de enrutamiento y reenvío, sistemas de notificación, información de telemetría e interfaces diferentes. Eso puede hacer que Linux sea más flexible, y con el apoyo de la gran comunidad de Linux, potencialmente más rápido para responder a la necesidad de nuevos servicios que un proveedor comercial.

Linux tiene un excelente ecosistema con API maduras, así como una pila de red ágil optimizada para el centro de datos modernizado. Por ejemplo, Linux está diseñado con un control separado y aviones de reenvío de datos que facilitan la caída en arquitecturas de redes definidas por software (SDN), ya que la separación de esos planos es la base de las SDN.

Otro elemento que los productos basados ​​en Linux pueden aportar a la red es que los conmutadores pueden administrarse con herramientas de automatización y orquestación de código abierto, basadas en políticas como Ansible, Puppet y Chef. Hay aproximadamente 25 de estas herramientas disponibles con soporte para diferentes sabores de Unix, pero todos ellos también soportan Linux.

Productos basados ​​en Linux

Durante la última década ha habido una explosión en el número de productos basados ​​en Linux que han tenido un gran impacto en el espacio de TI, incluyendo:

Kubernetes: administrador de clúster de contenedores de Google

OpenStack: plataforma de software para infraestructuras como plataformas de servicios cloud

Open Daylight: un proyecto de la Fundación Linux basado en Java que permite acelerar la adopción de las SDNs y la Network Functions Virtualization (NFV)

Docker: programa de contenedores de software.

Open vSwitch (OVS): un interruptor virtual multicapa distribuido para proporcionar una pila de conmutación dentro de entornos de virtualización. OVS es interesante porque ofrece un conjunto más rico de características de red que las capacidades básicas del kernel de Linux.

La creación de redes ha tardado en abrazar Linux, pero cuanto más dependen de la red, más se unen los dominios de red y de servidor. Para los ingenieros de red, el poder acceder al shell nativo de Linux les permite utilizar herramientas y software que sólo estaban disponibles para servidores. Esto hace que sea mucho más fácil organizar servicios de red con cambios en servidores y aplicaciones. Además, la naturaleza abierta de Linux ha creado una comunidad masiva que está activamente involucrada en encontrar nuevas maneras de usarlo. Los contenedores han evolucionado en gran medida a través de la participación de la comunidad. 

-Zeus Kerravala, Network World

Leer más...



¿Qué es la hiperconvergencia, cuáles sus beneficios y dónde aplicarla?

Categorías relacionadas:
Aplicaciones, Big Data, Cómo hacerlo, Centros de datos, Colaboración, Desarrollo, Infraestructura, Infraestructura, Lo más reciente, Lo más reciente, Movilidad, Principal, Reportes e investigaciones, Servidores, Servidores, Tendencias, Tendencias, Virtualización

que-es-hiperconvergencia

Hiperconvergencia es un marco de TI que combina almacenamiento, computación y redes en un único sistema en un esfuerzo por reducir la complejidad del centro de datos y aumentar la escalabilidad. Las plataformas hiperconvertidas incluyen un hipervisor para la computación virtualizada, almacenamiento definido por software y redes virtualizadas, y normalmente se ejecutan en servidores estándar.

Se pueden agrupar varios nodos para crear agrupaciones de recursos de computación y almacenamiento compartidos, diseñados para un consumo conveniente.

El uso de hardware de productos, soportado por un solo proveedor, produce una infraestructura diseñada para ser más flexible y más fácil de administrar que la infraestructura de almacenamiento empresarial tradicional.

Para los CIO que se están embarcando en proyectos de modernización de centros de datos, la hiperconversión puede proporcionar la agilidad de la infraestructura de nube pública sin renunciar al control del hardware en sus propias instalaciones.

¿Cómo difiere la hiperconversión de la infraestructura convergente?

La hiperconvergencia añade niveles más profundos de abstracción y mayores niveles de automatización. La infraestructura convergente implica un paquete preconfigurado de software y hardware en un único sistema para una gestión simplificada. Pero con una infraestructura convergente, los componentes de computación, almacenamiento y red son discretos y pueden separarse.

En un entorno hiperconvertido, los componentes no se pueden separar; Los elementos definidos por el software se implementan prácticamente, con una integración perfecta en el entorno del hipervisor. Esto permite a las organizaciones expandir fácilmente la capacidad mediante la implementación de módulos adicionales.

¿Cuáles son los beneficios de las soluciones de infraestructura hiperconvertida?

La infraestructura de Hiperconvergencia promete ofrecer simplicidad y flexibilidad en comparación con las soluciones heredadas. Los sistemas de almacenamiento, servidores y conmutadores de red integrados están diseñados para ser administrados como un único sistema, en todas las instancias de una infraestructura hiperconvertida (HCI).

Las capacidades inherentes de gestión permiten una mayor facilidad de uso y se espera que el almacenamiento definido por software produzca una mayor escalabilidad y mayor eficiencia en los recursos. Las empresas pueden comenzar en pequeño y crecer los recursos según sea necesario. Los proveedores de HCI también promueven posibles ahorros de costes en áreas que incluyen energía y espacio en el centro de datos, trabajo de TI y evitar el uso de software con licencia, como herramientas de copia de seguridad o recuperación de desastres.

¿Qué cargas de trabajo son fuertes candidatos para la hiperconvergencia?

Los sistemas HCI estaban orientados inicialmente a la infraestructura de escritorio virtual (VDI) y otras cargas de trabajo de propósito general con necesidades de recursos bastante predecibles. Con el tiempo han pasado de ser soluciones especializadas para VDI en plataformas generalmente escalables para aplicaciones empresariales, bases de datos y nube privada, según la firma de investigación Forrester.

En una encuesta de profesionales de la infraestructura cuyas empresas están planeando, implementando o expandiendo su uso de sistemas hiperconvertidos, Forrester encontró que las cargas de trabajo más comunes que se están ejecutando en sistemas hiperconvertidos son: base de datos, como Oracle o SQL server (citado por 50%); servicios de archivo e impresión (40%); colaboración, como Exchange o SharePoint (38%); escritorio virtual (34%); Software comercial empaquetado tal como SAP, Oracle (33%); análisis (25%); y cargas de trabajo orientadas a la Web tales como pila LAMP o servidores web (17%).

¿Cómo se vende?

La infraestructura de Hiperconvergente está disponible como un dispositivo, una arquitectura de referencia o como un modelo sólo de software. Las capacidades incluidas, como la de duplicación de datos, la compresión, la protección de datos, las instantáneas, la optimización de WAN y la recuperación de respaldo / desastre diferencian las ofertas de los proveedores.

Los vendedores especializados en el espacio HCI incluyen a Nutanix, SimpliVity y Pivot3. Los grandes proveedores de sistemas que han entrado en el mercado incluyen a Cisco, Dell-EMC y HPE. Gartner prevé que el mercado de sistemas integrados hiperconvertidos (HCIS) llegará a casi 5 mil millones –o 24% del mercado global de sistemas integrados– para 2019, a medida que la tecnología avanza hacia un uso más generalizado.

Ann Bednarz, NetworkWorld

Leer más...



Almacenamiento de datos seguirá dando dolores de cabeza: encuestas

Categorías relacionadas:
Administración, Almacenamiento, BI y analítica, BI y analítica, BI y analítica, Big data, Big Data, Big data, Cómo hacerlo, Centros de datos, Del día, Destacado, Energía, Estrategia CIO, Hipervisores, Infraestructura, Infraestructura, Lo más reciente, Lo más reciente, Mainframe, Management, Monitoreo, Servidores, Servidores, Tendencias, Tendencias, Virtualización, Virtualización, Virtualización

almacenamiento-dolores-cabeza

Dos nuevos informes muestran las luchas, las decepciones y los falsos comienzos que desafían los profesionales del almacenamiento empresarial a medida que modernizan sus infraestructuras para el negocio digital.

Juniper Research pidió a los profesionales de TI de la empresa que clasificaran sus problemas de almacenamiento más apremiantes. El “crecimiento de datos / capacidad” se ubicó en el primer lugar, según el informe de investigación de la firma. “Satisfacer los requisitos de recuperación de desastres” y “alto costo de almacenamiento” ocupó el segundo y tercer lugar, respectivamente, entre los encuestados.

En comparación con el año pasado, un porcentaje menor de encuestados –el 47% en 2017 frente al 55% en 2016– consideró que el manejo de datos / crecimiento de la capacidad es el reto más doloroso. Otra cuestión que parece estar disminuyendo en intensidad es el reto de proporcionar un rendimiento de almacenamiento adecuado; el 29% de los encuestados sufrió este reto en 2016, en comparación con el 22% de la última encuesta.

Al mismo tiempo, otros problemas de almacenamiento de la empresa son cada vez más urgentes. Por ejemplo, el 22% de 2017 encuestados citó el crecimiento de nuevas aplicaciones como un punto de dolor superior, comparado con el 10% de un año antes. Las migraciones de almacenamiento fueron lo más destacado para el 21% de los encuestados, en comparación con el 13% en 2016. La gestión de los datos almacenados en ambientes cloud de terceros es otro punto doloroso que está en aumento, pues fue citado por el 19% de los encuestados.

En la investigación se entrevistaron a 500 profesionales del almacenamiento. En una investigación similar, el proveedor de almacenamiento DataCore preguntó específicamente acerca de las expectativas de los profesionales de TI con el software, la hiperconvergencia y el almacenamiento en la nube.

Las tres mayores decepciones están un ahorro de costos menor de lo esperado –el 31% dijo que el almacenamiento en la nube no produjo un ahorro de costes. Además, el 29% informó que el almacenamiento de objetos es difícil de manejar. Para algunos profesionales de TI, flash no proporcionó las ganancias de rendimiento que esperaban: 16% dijeron que los sistemas de almacenamiento flash no lograron acelerar sus aplicaciones.

DataCore preguntó sobre las capacidades que les gustaría a los profesionales de TI de su infraestructura de almacenamiento al virtualizar el almacenamiento. La mayoría (83%) respondió que “la continuidad del negocio desde la alta disponibilidad” es la principal preocupación, mientras que el 73% de los encuestados respondió que “la habilitación de la capacidad de almacenamiento sin interrupción” es una capacidad de primordial importancia. La eficiencia de costos y la recuperación en casos de desastres (replicación asíncrona en sitios remotos) también se clasificaron en niveles altos, llegando al 65% y 60%, respectivamente.

 

Leer más...



Un 42% de empleados mexicanos creen que haciendo home office serían más productivos

Categorías relacionadas:
Administración, Administración de proyectos, Almacenamiento, Aplicaciones, Cómo hacerlo, Destacado, Estrategia CIO, Infraestructura, Lo más reciente, Lo más reciente, Mejores prácticas, Movilidad, Movilidad, Movilidad, Notebooks, Personal TI, Reportes e investigaciones, Servidores, Smartphones, Tablets, Tendencias, Tendencias, Ultrabooks, Virtualización, Virtualización

coworkers

Con una fuerza laboral más móvil, los profesionales mexicanos esperan cada vez más ser capaces de mantenerse productivos desde cualquier lugar y en cualquier momento. Sin embargo, satisfacer estas necesidades laborales en evolución puede presentar desafíos para las empresas. Los equipos de TI deben asegurarse de que su tecnología de acceso remoto permita un fácil acceso a los escritorios corporativos, aplicaciones y datos, manteniendo al mismo tiempo una experiencia de usuario amigable y manteniendo la información confidencial segura.

¿Qué es el acceso remoto?

 El acceso remoto es la capacidad de acceder a una computadora, dispositivo móvil o una red desde fuera de la oficina tradicional, una actividad que se está convirtiendo en una parte fundamental de la productividad de los profesionales en México.

La realidad es que hoy en día desde los empleados que están en las oficinas hasta los teletrabajadores, el personal contratado, los autónomos o los que viajan, entre otros, necesitan de una solución que les provea las herramientas necesarias para que puedan trabajar desde cualquier momento y en cualquier lugar. Además, cada vez es más común que los trabajadores mexicanos tengan que tener comunicación con colegas que están situados fuera de sus oficinas o incluso en otros países.

En concreto, según el estudio Los trabajadores digitales en México: ¿qué buscan, cómo trabajan?, realizado por Citrix, el 73% de los mexicanos labora con personas que se encuentran en otras oficinas o en otras ciudades.

El estudio también revela que el 48% de los trabajadores del país dejarían su trabajo actual por otro que les brinde la opción de trabajar de manera remota y el 42% cree que haciendo home office sería más productivo, ya que el 47% de los encuestados opinó que obtendría un equilibrio entre vida laboral y personal y el 25% consideró que pasaría menos tiempo en el transporte público.

En cuanto a la tecnología para hacerlo posible, existen varios métodos para habilitar el acceso remoto para los empleados. Las opciones tradicionales como el software de escritorio remoto o las redes privadas virtuales (VPN) pueden resolver algunas necesidades, pero tienen limitaciones que las hacen inadecuadas para los requisitos de seguridad y flexibilidad de muchas organizaciones.

Las soluciones de virtualización y colaboración brindan un enfoque más amplio para una colaboración eficaz permitiendo que todos los datos estén disponibles para los trabajadores, y asegurando que cada miembro tenga acceso a las mismas versiones de aplicaciones de software, incluso si sus oficinas u organizaciones están en un programa de actualización diferente, de modo que puedan tomar decisiones, comunicarse con los clientes y desarrollar proyectos en cualquier momento y lugar.

Además, los equipos de TI deben asegurarse que estas soluciones brinden una alta experiencia a los usuarios pero paralelamente no comprometan la seguridad de la información y datos de la empresa.

La seguridad ante el aumento del uso de dispositivos móviles y BYOD

 Los empleados ya no dependen de las computadoras de escritorio de propiedad corporativa para completar su trabajo. Hoy en día, utilizan rutinariamente dispositivos móviles o personales para llevar a cabo tareas empresariales. Según el mismo estudio de Citrix, cuando los profesionales mexicanos trabajan fuera de la oficina, el 84% accede al mail corporativo desde el celular o la tableta y el 80% habla de los pendientes del trabajo con los colegas a través de apps como WhatsApp.

Estos datos hacen que el equipo de TI considere como prioridad garantizar la seguridad de los datos críticos al momento de proporcionar opciones para el trabajo móvil.

Por otro lado, 32% de los empleados no han recibido una capacitación sobre conductas apropiadas para el resguardo de datos corporativos y su seguridad. Esto provoca que, desafortunadamente, la mayoría de los usuarios no comprendan la magnitud de los posibles riesgos de seguridad inherentes a los diferentes escenarios de acceso remoto en el caso que no exista una solución tecnológica adecuada.

Ante este panorama, las soluciones como la virtualización de aplicaciones y escritorios, permiten que las áreas de TI puedan cumplir los requisitos de seguridad manteniendo todas las aplicaciones y datos en el centro de datos corporativo, en lugar de hacerlo localmente en los dispositivos de los trabajadores.

Para cumplir con los requisitos de seguridad y garantizar que los empleados puedan completar con éxito sus trabajos, una estrategia de acceso remoto debe abarcar un método que ofrezca una experiencia consistente para los usuarios, independientemente de si se conectan en una red interna o externa. También brindar acceso seguro a datos con sincronización y compartición integrada de archivos en cualquier dispositivo y ubicación, gestión centralizada de accesos y permisos de empleados, con políticas de control escalables.

En conclusión, habilitar el acceso remoto a los trabajadores puede proporcionar muchas ventajas de negocio para las organizaciones. Los empleados pueden disfrutar de un mejor equilibrio entre el trabajo y la vida y mantenerse productivos desde cualquier lugar.

Por otro lado, los equipos de TI pueden obtener un mayor control sobre la seguridad de los datos al mismo tiempo que habilitan a los usuarios para que trabajen con el dispositivo de su elección. No obstante, es importante que, a medida que los nuevos estilos de trabajo continúan evolucionando, las organizaciones cuenten con soluciones integrales de acceso remoto que cumplan con todos los requisitos empresariales en relación a la experiencia del usuario, flexibilidad, escalabilidad y la seguridad de la información crítica.

__________________

Carlos-Macias-Citrix-MexicoEl autor de este artículo, Carlos Macías, es Country Manager de Citrix México.

Leer más...