Seis proyectos sobre analítica de datos

Categorías relacionadas:
Administración, Administración de proyectos, Administración de proyectos, BI y analítica, BI y analítica, BI y analítica, BI y analítica, Big Data, Big data, Cómo hacerlo, Estrategia CIO, Innovación, Lo más reciente, Lo más reciente, Mejores prácticas, Principal, Reporte Especial, Tendencias, Tendencias

Big-Data-analitica

Si los datos son el nuevo combustible, saber cómo refinarlo para convertirlo en inteligencia accionable, es la clave para propulsar su potencial. Con este fin, los CIO están probando herramientas de analítica predictiva, desarrollando algoritmos de aprendizaje de máquina y poniendo a prueba otras soluciones con el fin de encontrar eficiencias para el negocio y nuevas maneras de atender a los clientes.

Ya que están muy conscientes de que reducir los costos o incrementar las ganancias pueden ayudarles a brillar ante los ojos de la alta gerencia y el directorio, los CIO están gastando más que nunca en tecnologías que soportan la ciencia de los datos. Las ganancias a nivel mundial para el big data y la analítica de negocio llegarán a los 150,8 mil millones de dólares en el 2017, lo que representa un incremento de 12,4% con respecto al 2016, de acuerdo a IDC. Se espera que las compras comerciales de hardware, software y servicios destinados a soportar el big data y la analítica superen los 210 mil millones de dólares. El analista del IDC, Dan Vesset, señaló que las soluciones de analítica de big data se han convertido en los pilares fundamentales para dar paso a las iniciativas de transformación digital en todas las industrias y procesos de negocio a nivel mundial.

Pero existe un lado oscuro en este gasto delirante: La mayoría de proyectos de analítica de datos no producen un valor medible. Los sistemas previos y las burocracias de las líneas de negocio han generado compartimentos estancos con los datos y han perpetuado una pobre calidad de los datos. Y los CIO están luchando por llenar los vacíos en el personal requerido para manipular los datos, con el fin de obtener conocimientos. La guerra de la búsqueda de personal calificado es feroz y el aumento en los programas de analítica en las universidades no está produciendo candidatos calificados lo suficientemente rápido.

Aun así, las historias de éxito de la analítica de datos fueron abundantes en el CIO100 Symposium que se llevó a cabo a principios de mes y donde muchos líderes de TI fueron premiados por sus iniciativas. Los CIO también compartieron las lecciones aprendidas y los consejos con otros CIO que se encontraban en proceso de llevar a cabo iniciativas similares.

Hacer que la analítica de datos funcionara en Merck

Merck, que había crecido hasta convertirse en una compañía de salud global valorizada en 40 mil millones de dólares y con una operación que abarca 140 mercados a nivel mundial, buscó usar los datos recolectados en su ERP y sistemas centrales para la fabricación de controles de ejecución e inventario con el fin de adquirir más conocimientos sobre el negocio. Pero cuando los ingenieros de Merck emplearon del 60% al 80% de su iniciativa buscando, accediendo e ingestando datos para cada proyecto, el objetivo del negocio ya se había perdido desde hacía mucho. “No estábamos viendo a los datos como activos viables permanentes y valiosos”, afirmó Michelle A’lessandro, CIO de TI de Manufactura de Merck. “Nosotros queríamos establecer una cultura en donde pasáramos mucho menos tiempo moviendo y reportando los datos y mucho más tiempo usando los datos para lograr resultados significativos de negocio”.

Merck creó MANTIS (Manufacturing and Analytics Intelligence), un sistema de almacenes de datos que contiene bases de datos en memoria y herramientas de código abierto que pueden procesar datos albergados en sistemas estructurados y no estructurados como texto, video y redes sociales. Principalmente, el sistema fue diseñado para permitir a los analistas de negocio -sin necesidad de que sean técnicos- ver fácilmente los datos en un software de visualización. Contrariamente, los científicos de datos podían acceder a la información a través de herramientas sofisticadas de modelación y simulación. MANTIS ha ayudado a reducir en 45% el tiempo y costo de la cartera general de proyectos de analítica de TI. Los resultados tangibles del negocio incluyen la reducción del 30% del tiempo promedio en los leads, y una reducción de 50% en los costos promedio de inventario.

Lecciones aprendidas: Una clave de su éxito, afirmó A’lessandro, fue identificar un proyecto de analítica “guía” en una planta de Asia-Pacífico en donde Merck vería los mayores frutos. Al mostrar el éxito de MANTIS ahí, éste se convirtió en una llamada de acción para los otros sitios. También aprendió a no abarcar más de la cuenta. A’lessandro indicó que la compañía se extralimitó en un experimento inicial para usar inteligencia artificial y aprendizaje de máquina para analizar los costos de los procesos de fabricación de Merck. “No se debió a una falta de financiamiento o falta de visión, simplemente no pudimos lograr que funcionara”,afirmó A’lessandro.

Dr. Pepper Snapple Group usa el aprendizaje de máquina para la relevancia contextual

Durante años, el personal de rutas de ventas de Dr. Pepper Snapple Group usaba una gruesa carpeta llena de datos de clientes, anotaciones de ventas y promociones, y salía en busca de clientes de retail como Wal-Mart y Target. Hoy, en lugar de una carpeta, el personal de ventas está armado con iPads que les dicen qué tiendas tienen que visitar, qué ofertas hacer a los retailers y otras métricas cruciales. “Ellos simplemente tomaban pedidos”, dijo Tom Farrah, CIO de Dr. Pepper Snapple Group. “Ahora se están convirtiendo en personas inteligentes de ventas, equipadas con información que les ayuda a cumplir su objetivo”.

La plataforma MyDPS está equipada con aprendizaje de máquina y otras herramientas de analítica que canaliza recomendaciones y una tarjeta de puntaje operativo a los trabajadores cuando éstos cargan la aplicación. Algoritmos que muestran al personal cómo se están desempeñando en comparación con sus proyecciones esperadas, incluyendo si es que están encaminados a cumplir con su plan, si es que se están desviando y también cómo corregir la dirección en la que están. “Si yo voy a hacer que alguien sea exitoso, tengo que asegurarme de que la información que tiene sea contextualmente relevante”, señaló Farrah.

Lecciones aprendidas: Para evaluar la prueba de concepto para MyDPS, Farrah dio el software a cuatro personas en una sucursal e hizo que el presidente del negocio las visitara. Ellos revelaron que, después de usar MyDPS, la ejecución de la venta al canal de distribución había mejorado en 50% en comparación con el mes anterior, convenciéndolo de dar luz verde al proyecto. “Obtuvo resultados y eso es lo que la venta requirió”, anotó Farrah. “Eso es realmente importante, que no solo tenga el patrocinador de negocio para un proyecto, sino que también sepa cuál es el resultado que éste obtendrá.

Bechtel se disrumpe a sí misma con un centro de excelencia de big data

Un hecho poco conocido: Los gastos relacionados a la construcción representan el 13% del PBI, pero la industria completa ha generado solo el 1% de las ganancias en productividad en las últimas dos décadas, afirmó la CIO de Bechtel, Carol Zierhoffer. Los expertos expresaron que el sector puede mejorar la productividad en 50% a 60% renovando contratos, mejorando las habilidades de los empleados y mejorando la ejecución onsite, entre otros ajustes. Bechtel, que construyó la represa Hoover, el English Channel Tunnel y otras maravillas, empezó a encontrar conocimientos en los datos que estaban enterrados en varias partes del negocio.

Zierhoffer se reunió con los CIO de Wal-Mart, Boeing y Lockheed Martin para adquirir conocimientos sobre cómo avanzar. La compañía construyó un centro de excelencia de big data, en donde se encuentra un lago de datos que contiene cinco petabytes de datos, y empezó un proyecto piloto. Éste usó tecnología de reconocimiento de fotos para inspeccionar y etiquetar fotos de sitios web en representación de los clientes, ahorrando dos millones de dólares. Las herramientas de procesamiento de lenguaje natural (NLP) analizan gramaticalmente reclamos, RFPs y contratos. Los planes y estimados, que alguna vez requirieron días y semanas, ahora toman horas. Bechtel también ha expandido las iniciativas de analítica para observar la retención del personal, incluyendo intentar anticipar cuándo podrían irse los empleados. “Nosotros creemos estar tocando la puerta de ese desafío a la productividad”, afirmó Zierhoffer.

Lecciones aprendidas: Los compartimentos estancos de datos y de calidad son algo difícil. Aunque Bechtel puede analizar volúmenes grandes de datos, debe mejorarse la calidad de los datos localizados en todo el negocio. “Tuvimos que disrumpirnos a nosotros mismos y observar cómo trabajamos y conectamos los compartimentos estancos de datos”.

El camino de RRD hacia nuevos negocios gracias al aprendizaje de máquina

Hace unos años, RRD, la compañía de marketing y comunicaciones que solía llamarse R.H. Donnelley, abrió una división de logística para enviar sus materiales de impresión a clientes y negocios. Para soportar al negocio, administraba cargas por su cuenta y trasportaba cualquier cosa, desde lavadoras hasta comida para perro a nombre de sus socios, expandiéndose hasta llegar a ser una organización valuada en mil millones de dólares. ¿El desafío? Encontrar tarifas de envío en un mundo donde FedEx y UPS eran los reyes innegables.

Las variables como el clima, geografía, conductores y climas políticos generan costos a su negocio. Con la constante necesidad de predecir las variables de las tarifas, RRD recurrió al aprendizaje de máquina y la analítica, dijo Ken O’Brien, CIO de RRD. Se contrató personal y a universidades para que ayudaran a escribir algoritmos, probar miles de posibles situaciones en las 700 rutas hasta ser capaces de anticipar tarifas de trasporte de carga en tiempo real -con siete días de anticipación y con un nivel de precisión de 99%. “El proyecto se pagó solo en menos de un año y aún seguimos viendo crecimiento en ese negocio relacionado a cargas, afirmó O’Brien. La compañía proyecta que en el 2017 su negocio de cargas de camión crecerá de cuatro a 16 millones de dólares, un incremento de ganancias de 12 millones de dólares en un negocio de 600 millones de dólares.

Lecciones aprendidas: Las nuevas empresas requieren un compromiso de alto nivel, aunque O’Brien admite que algunos de sus compañeros de negocio estaban listos para tirar la toalla en varios momentos a lo largo del camino. El negocio no confiaba en la tecnología para un proceso que se hacía típicamente mediante estimaciones subjetivas. RRD instaló un ambiente colaborativo en el cual el negocio y TI trabajaron juntos para influir en el resultado. “Tropezará y enfrentará desafíos, pero sea paciente”, señaló O’Brien.

Monsanto adopta el aprendizaje de máquina para lograr planes de óptimos de siembra

Los granjeros siempre la pasan muy mal pensando en qué semillas plantar, cuántas, dónde y cuándo. Monsanto, el gigante de las semillas, se encuentra trabajando en eso, usando ciencia de datos para hacer recomendaciones prescriptivas para sembrar. Modelos matemáticos y estadísticos para planear los mejores momentos para sembrar plantas macho y plantas hembra, así como dónde plantarlas, idealmente para maximizar la cosecha y reducir el uso del terreno. El algoritmo de aprendizaje de máquina rota a través de más de 90 mil millones de puntos de datos en días, en lugar de hacerlo en semanas o meses, señaló Adrian Cartier, director global de analítica de TI de Monsanto. ¿Los beneficios del negocio? En el 2016, Monsanto redujo su huella de cadena de abastecimiento en 4%. En América del Norte, una reducción de 4% en el uso del terreno equivale a mucho territorio que no se está usando y mucho ahorro de dinero”, afirmó Cartier.

Lecciones aprendidas: La clave para Monsanto fue inculcar una colaboración “de principio a fin” entre TI y el negocio de la cadena de abastecimiento. “Su experiencia con el campo, desde el punto de vista de la agricultura y de la cadena de abastecimiento, calzó con nuestro propio dominio de las matemáticas y la estadística, y así se fue generado el valor que fuimos capaces de producir”, señaló Cartier. El ejecutivo afirmó que él también buscó “cambiar líderes y partidarios” dentro del negocio de cadena de abastecimiento para compensar el balance poco saludable de los pesimistas.

Para Pitt Ohio, la analítica predictiva trae éxito

La industria de carga está bajo el ataque de lo que se denomina “Impacto de Amazon”, señaló Scott Sullivan, CIO de Pitt Ohio. Pitt Ohio, una compañía de carga de 700 millones de dólares, se había acostumbrado a recoger carga y entregarla a los clientes al día siguiente. Pero cada vez más, gracias a Amazon, los clientes esperan la entrega de la mercancía el mismo día. Y ellos esperan más información sobre sus paquetes.

“Los clientes ahora quieren saber no solo cuándo va a ser recogido, sino también quieren saber cómo será entregado para poder planear su carga de trabajo”, informó Sullivan. Usando los datos históricos, la analítica predictiva y los algoritmos que calculan una variedad de pesos de carga, la distancia de manejo y otros factores en tiempo real, Pitt Ohio puede estimar el tiempo en que llegará el conductor al destino de entrega con un nivel de precisión del 99%. La compañía estima que ha incrementado ganancias por la repetición en los pedidos (estimadas en 50 mil dólares) y redujeron el riesgo de pérdida de clientes (estimado en 60 mil dólares al año).

Lecciones aprendidas: Sullivan afirmó que fue algo que involucró a las áreas de investigación de mercado, operaciones de ventas y a TI, y todas éstas verificaron y volvieron a verificar los resultados para cerciorarse de estar cumpliendo con sus objetivos. “Existen muchos datos dentro de sus cuatro paredes -sea innovador y busque maneras desafiantes de usarlos”, indicó Sullivan.

-Clint Boulton, CIO (EE.UU)

Leer más...



Reporte Especial – El Centro de Datos: la convergencia entre on site y cloud para impulsar el negocio

Categorías relacionadas:
Administración, Administración de proyectos, Administración de proyectos, Administración del riesgo, Almacenamiento, Aplicaciones, Aplicaciones, BI y analítica, BI y analítica, Big data, Cómo hacerlo, Centros de datos, Cloud / Nube, Cloud Computing, Energía, Escritorios, Estrategia CIO, Hipervisores, Infraestructura, Infraestructura, Inversiones, Lo más reciente, Lo más reciente, Mainframe, Mejores prácticas, Mejores prácticas, Monitoreo, Nubes públicas y privadas, Outsourcing, Principal, Recuperación, Reporte Especial, Reportes e investigaciones, SaaS, Seguridad, Servidores, Servidores, Tendencias, Tendencias, Virtualización

Reporte-especial-ilustracion

La digitalización del negocio es un paso obligatorio de la empresa, donde cada vez se adoptan más tecnologías disruptivas como Big Data, movilidad e incluso el Internet de las Cosas y la Inteligencia Artificial, haciendo que toda esta carga de procesos y generación de datos recaiga dentro de las operaciones TI y, específicamente, en el centro de datos. Esto obliga a las empresas a invertir en infraestructura y apoyarse en la nube.

Según una encuesta de IDC a líderes TI en las empresas, el 72% de ellos cree que la transformación digital y el crecimiento del negocio es la principal razón para modernizar su infraestructura TI. La consultora afirma que en los últimos tres años la nube híbrida maduró, mientras que las arquitecturas definidas por software y las infraestructuras hiperconvergentes han modificado el estado actual de la infraestructura de TI.

Sin duda la nube se ha convertido en una tendencia que ha crecido con la transformación digital, siendo un aliado para ofrecer agilidad al negocio. ¿Será el centro de datos híbrido el siguiente paso obligatorio? ¿Ya no es suficiente la TI tradicional?

Foto1-Arturo-Benavides-Dell-EMC

Arturo Benavides, Primary Storage Sales Director en Dell EMC Latinoamérica.

El reto es claro: o se modifican, se redefinen o están condenados a caer en el mercado. Al menos así lo consideró Arturo Benavides, Primary Storage Sales Director en Dell EMC Latinoamérica. “La transformación digital está obligando a todas las empresas a redefinirse y lo está haciendo a través de nuevas aplicaciones de negocio que son más nativas en cloud, apalancando la tercera plataforma. Para esto se tiene que iniciar modernizando las TI”, comentó.

Según un estudio realizado por esta compañía –en el cual se entrevistó a los CIO de 3,000 organizaciones alrededor del mundo– un 45% tiene claro que si no adoptan la transformación digital (conocida también por las siglas DX),  estarán fuera del mercado en un plazo de unos tres años. Sólo un 5% de los entrevistados ya había definido una estrategia de DX, 12% se encuentra trabajando un modelo muy tradicional, y 42% están empezando a tomar iniciativas de transformación.

Convergencia entre On site y cloud

Por su parte, la firma de consultoría Gartner reconoce la necesidad de alinear iniciativas TI para impulsar el valor de negocio a través del desarrollo ágil, la convergencia de tecnología e infraestructura, y la modernización, automatización y migración a plataformas en la nube. “Los encargados de infraestructura y operaciones, así como sus equipos de trabajo, deben garantizar que los sistemas existentes sean confiables mientras implementan los cambios necesarios para sustentar las nuevas cargas de trabajo”, aseveró Federico De Silva León, Director de Investigación de Gartner.

Foto2-Federico-De-Silva-Gartner

Federico De Silva León, Director de Investigación de Gartner.

Para HPE, la transformación digital de los negocios se trata de un paso obligatorio que, en definitiva, tocará cada una de las empresas en México y el mundo, donde la perfecta convergencia entre on site y cloud jugará un papel protagónico. “Esto claramente impacta en el centro de datos y la nube. En HPE creemos que vamos a vivir en un mundo híbrido”, puntualizó Alejandro Lomelín, Director de Ventas para Soluciones de Data Center para Hewlett Packard Enterprise (HPE).

Dijo que la compañía tiene tres primicias al respecto: 1) el mundo será híbrido con in house y cloud; 2) la periferia que hoy genera tráfico en la red y datos van a apalancar la generación de aplicaciones; y 3) se transformará el modo en que se entregan este tipo de tecnología, que en HPE se cree será a través de servicios. “Debemos ver las cargas que realmente se necesiten llevar a la nube, cuáles podemos comprar como servicios y cuáles aún tienen que vivir en el centro de datos”, aseveró Lomelín.

Foto3-Alejandro-Lomelin-HPE

Alejandro Lomelín, Director de Ventas para Soluciones de Data Center para Hewlett Packard Enterprise (HPE).

Dell EMC ofrece un modelo similar para llevar el negocio hacia la digitalización aplicando mejoras en el centro de datos y la nube, al que han denominado MAT (Modernizar, Automatizar y Transformar). Con este modelo ayudan a las empresas a entender qué se debe modernizar en las TI, cómo se pueden automatizar los procesos en el centro de datos y transformar a la gente.

Para Adrián Simg, Data Center Group Executive de Lenovo, lograr la convergencia perfecta entre el centro de datos y cloud es un proceso completo de transformación que va más allá de proveer una mejora en infraestructura física. “No sólo se trata del fierro, el almacenamiento y el procedimiento, se trata de cómo hago uso de todo ello, para lo cual se requiere software y personas”, comentó Simg.

Principales obstáculos

Lograr tal convergencia parece no ser una tarea sencilla. Al respecto, Gartner señala que uno de los principales retos a los que se enfrenta el CIO tiene que ver con la administración de presupuestos TI de modo eficaz. Según una encuesta de la consultora, este 2017 la segunda prioridad para CIOs en América Latina tiene que ver con modernización de Infraestructura y operaciones (mencionado por el 32% de sus encuestados).

Sin embargo, los presupuestos han sido recortados. Las empresas deben entender que no sólo se trata de recortar presupuestos, sino de generar valor y tratar las inversiones TI como activos, no como gastos. “Las organizaciones de TI que quieren ser exitosas en el futuro deberán poner el eje no sólo en la tecnología, sino también en los resultados de negocio”, comentó De Silva León, de Gartner.

Hacia dónde se destinará la inversión

Para Dell EMC, si bien la cuestión de presupuestos parece un obstáculo ahora, hacer el esfuerzo por invertir en modernización trae a la empresa beneficios no sólo en costos, sino en productividad del personal, redireccionando esfuerzos a resultados. “Al modernizar se obtienen ahorros significativos en operación y automatización. Estos ahorros los inviertes ahora en investigación, desarrollo e innovación, permitiendo hacer el circulo virtuoso de lo que es la transformación digital”, aseveró Arturo Benavides.

Foto5-Marco-Damian-Panduit

Marco Damián, Gerente de Mercado Financiero de Panduit.

Esto es lo que permite vislumbrar un mercado prometedor en México. “Vemos que la inversión en general de centros de datos en el país crecerá alrededor del 10% en forma anual por lo menos por los siguientes cinco años”, aseveró Marco Damián, Gerente de Mercado Financiero de Panduit. Agregó que muchos centros de datos han crecido bajo demanda, es decir, conforme han surgido las necesidades. “El área de oportunidad que vislumbramos es que este crecimiento por parte de los usuarios se realice en forma estructurada y ágil, destinando importantes recursos para optimizar la parte de energía y enfriamiento en el centro de datos”.

Y por lo que respecta a los proveedores de servicios, las expectativas de crecimiento parecen fundamentarse en soluciones a la medida. “Un elemento importante es ofrecer todo bajo servicio, es decir, no nada más la infraestructura, las aplicaciones o el software sino todos los componentes bajo un modelo integrado con el centro de datos”, resaltó Ricardo Rentería, Director General de Amazon Web Services en México.

De acuerdo con el directivo, esto significa ofrecer soluciones de ERP, web o almacenamiento que pueden ser integradas bajo el concepto de cloud, aportando características de elasticidad y facturación por minuto/hora con los conceptos de los centros de datos actuales. “Esto garantiza la extensión de las inversiones que los clientes ya tienen, incorporando la innovación que ofrece cloud”, señaló Rentería.

Otro de los proveedores de infraestructura en este sector, Intel, busca habilitar nuevos modelos de negocio para entregar servicios más personalizados y orientados hacia un sector o empresa en específico, de manera “que al proveedor de nube le dé una ganancia adicional y al usuario una mejora en la experiencia, así como un modelo de negocio más ajustado a lo que necesita”, explicó Pedro Cerecer, Director de Cloud Service Providers para Intel Américas.

Dijo que la inversión en los centros de datos se debería enfocar hacia dos grandes rubros: un cambio completo en la cultura organizacional (“más ágil, rápida y abierta en cuanto a dónde se genera la información para tomar decisiones”) y hacia una plataforma digital, en la cual intervenga la toma de decisiones informada (con base en Big Data), a partir de muchas fuentes (Internet de las Cosas), con plataformas que mantengan la confianza que ha ganado la empresa con sus clientes, “y que sea un centro de trabajo con pensamiento innovador que genere una experiencia continua hacia el cliente con interacción 7×24”, explicó Cerecer.

Foto-Pedro-Cerecer-Intel

Pedro Cerecer, Director de Cloud Service Providers para Intel Américas.

Por su parte, Rodolfo Montes de Oca Ruiz, Ingeniero de Preventa de Veeam, afirmó que, de acuerdo con una encuesta aplicada a nivel mundial, en México el 60% de las organizaciones que están invirtiendo en plataformas de Software o en Infraestructura como Servicio, o bien, planean hacerlo en los próximos 12 meses. Este porcentaje es significativo, ya que duplica el promedio de inversión en estos rubros declarado a nivel global. Montes de Oca agregó que su empresa ofrece disponibilidad para el centro de datos moderno, “con tiempos de recuperación menores a 15 minutos para cualquier organización, independientemente de dónde se encuentre su nube”.

Ofrecer este tipo de garantías puede asegurar “una larga vida” al centro de datos. De hecho, información proporcionada por Furukawa Electric, empresa dedicada al sector de telecomunicaciones, energía y electrónica, señala que el 76% de los datos que existen a nivel mundial residen dentro de un data center (DC), un 17% se encuentran entre el DC y el usuario, y el 5% restante interactúan entre varios centros de datos. “Además, hay muchas cosas que cambiarán en el ámbito de los data centers: la descentralización de la nube, la distribución de contenido más cercana al usuario, y datacenters distribuidos con ancho de banda hiperescalables con velocidades de 200 y 400 gigas”, advirtió Germano Alves Da Costa, Ingeniero de Data Center en Furukawa Electric.

Seguridad, control de riesgos y backup

No obstante lo anterior, aún persiste una falta de conciencia respecto a la seguridad de los datos y los sistemas, al menos esa es la perspectiva de Alejandro Lomelín, de HPE, quien aseguró que en las empresas debería haber un mejor manejo de la información y una mejor gobernabilidad. “La información debería vivir en dispositivos muy seguros que no sean vulnerados ni por externos ni por empleados mal intencionados”.

Y es que al producirse mayor cantidad de datos y procesos se generan mayores densidades de calor en diferentes áreas de las salas que alberga el centro de datos. “Es necesario entonces un adecuado sistema de enfriamiento que permita la continuidad del negocio, evitando caídas de sistemas provocadas por el sobrecalentamiento de los equipos”, dijo Alejandro Sánchez, Director Comercial de Stulz México.

Foto6-Ricardo-Rentenria-AWS

Ricardo Rentería, Director General de Amazon Web Services en México.

Para lograr lo anterior, recomendó nivelar la carga de energía en todo el centro de datos, estableciendo zonas de baja, media y alta densidad para así enfocar los diferentes niveles de esfuerzos en esas zonas para el suministro del aire acondicionado. “Es un hecho que hoy día estamos viendo una tendencia creciente a que todos los servicios sean a través de la nube y para esto todos los componentes, incluidos los sistemas de enfriamiento, deben estar preparados”, resaltó Sánchez.

Por otra parte, las certificaciones de seguridad juegan un papel importante en esta transformación, especialmente al momento de seleccionar un proveedor de servicios de nube, para que éste garantice que los datos no se van a ver comprometidos, ni mis procesos detenidos. “Existen diferentes niveles de certificación, dando un nivel de confiabilidad que depende de que, en caso de que suceda algo, cuánto tiempo me tardo en recuperar esa continuidad. Entre menos tiempo me tarde, un nivel de certificación más alto se obtiene”, aseguró Eurídice Ibarlucea, Especialista en sistemas de supresión de incendios en Victaulic.

Foto7-Rodolfo-Montes-de-Oca-Veeam

Rodolfo Montes de Oca Ruiz, Ingeniero de Preventa de Veeam.

El papel del CIO en este proceso

Gartner reconoce la importancia de destacar el papel del CIO en este proceso y la necesidad de transformar el rol que ejerce dentro del área TI, pasando de ser simples gerentes a convertirse en asesores confiables de los CEO. Según esta firma consultora, deben estar conscientes de que aquellas habilidades que les permitieron llegar a su puesto no necesariamente los llevarán al siguiente nivel.

“Si bien la tecnología siempre será importante, no es lo único ni lo primordial para el CIO, dado que las personas y los procesos de operación de TI resultan tanto o más importante en este proceso”, afirmó Silva León, de Gartner.

Foto8-German-Alves-Furukawa

Germano Alves Da Costa, Ingeniero de Data Center en Furukawa Electric.

Se trata de una primicia compartida también por HPE: “Queremos empoderar a este personaje de tecnología, al área de Sistemas, para que se vuelva un bróker de estos servicios y tenga cierta gobernabilidad de todo el proceso”, comentó Lomelín.

Los CIO deben entender que su papel está cambiando, que se están convirtiendo en habilitadores de servicios, y deben entender que la TI es el medio para lograr que las aplicaciones de negocio trabajen de un modo más eficiente, rentable y seguras, y deben asegurarse de tener las herramientas para poder orquestar el movimiento de la información, de acuerdo con Benavides, de Dell EMC.

Innovación en Data center, un paso obligatorio

Gartner destaca la necesidad de aumentar la influencia mediante innovación, con la construcción de sistemas de TI ágiles y definidos por software, así como detectar comportamientos anormales para monitorear, gestionar, medir, asegurar y alertar; automatizar la toma de decisiones a partir de datos, y unirse a la economía de las API.

Foto9-Alejandro-Sanchez-Stultz

Alejandro Sánchez, Director Comercial de Stulz México.

Si bien el cloud computing es una solución que llegó para quedarse al ofrecer muchas ventajas para el negocio, el centro de datos no va a desaparecer, al menos así lo consideró Adrián Simg, de Lenovo. “No creo que una empresa vaya a una nube al 100%. Siempre existirá un equilibrio entre el centro de datos y cloud, si bien puede haber más procesamiento o almacenamiento en la nube, pero el centro de datos jamás dejará de existir”, afirmó.

Es por ello que las empresas no deben dejar este importante proceso de actualización de su infraestructura on site de lado, a través de una serie de herramientas, productos y servicios que les ayuden a efientar el data center.

“La optimización de todo lo que tienes en el centro de datos es algo que no va a parar. Pero los ingredientes adicionales que se le ponen al centro de datos para amalgamar este proceso serán la clave”, aseguró Alejandro Lomelín, de HPE.

Uno de los avances más significativos en este aspecto es el almacenamiento, que ha pasado del tradicional gran gabinete lleno de discos duros giratorios que generaban mucho ruido, ocupaban gran espacio y consumían altos niveles de electricidad, al almacenamiento flash que no genera ruido, disminuye en gran medida la generación de calor y consumen mucho menos electricidad. Hoy en día son drives con mucha más capacidad en menos espacios. Además, ayuda a reducir costos operativos, eficientizar la administración generando un centro de datos verde.

Foto10-Euridice-Ibarlucea-Victaulic

Eurídice Ibarlucea, Especialista en sistemas de supresión de incendios en Victaulic.

Otras de las innovaciones que se han dado en los últimos años a fin de robustecer la infraestructura para el centro de datos tiene que ver con sus sistemas de supresión de incendios, pasando de sistema tradicional de chorros de agua o químicos que suelen ser dañinos para el ambiente y las personas, a sistemas híbridos.

Estos sistemas híbridos combinan nitrógeno (un gas inerte que no acelera el calentamiento global), con micromoléculas de agua para generar una emulsión que no produce humedad residual, permitiendo proteger el centro de datos y áreas críticas, sin interrumpir las actividades del mismo.

Si se comparan los sistemas tradicionales a chorro de agua –que requieren procedimientos más complejos como almacenamiento de agua, bombas, rociadores y otra clase de infraestructura pesada–, los sistemas híbridos sólo necesitan de un almacenamiento reducido de agua y nitrógeno conectado a tuberías de áreas críticas que se están protegiendo. Además, el costo por toda la infraestructura que debe sobrellevar es mucho menor.

“Si se nos cae el sistema, estás dejando de vender, estás perdiendo confiabilidad y clientes. Una vez que pierdes un cliente estás perdiendo negocio, participación de mercado, y otra serie de grandes pérdidas intangibles, pero que a veces tienen más valor que el monetario, incluso estamos hablando de cosas irreemplazables”, puntualizó Eurídice Ibarlucea, de Victaulic.

Esta nueva alternativa es amigable con el medio ambiente, al mismo tiempo que protege los activos que se están resguardando, evitando que se detenga la transmisión de datos, avalando la continuidad del negocio y operaciones.

Para finalizar, Stulz recomendó contar con una plataforma de DCIM (Data Center Infrastructure Management) que permita tener una completa visibilidad y administración de toda la infraestructura física, y no sólo la parte del enfriamiento.

Por su parte, Ricardo Rentería, de AWS, aseveró que todavía veremos la integración entre ambientes site y cloud por algunos años más, “debido a que hay una fuerte inversión en centros de datos locales en México, ya sean propios o por contratos de outsourcing o hosting.

“En lo que las empresas hacen un ciclo completo de proyecto, capacitación, habilitación, definición de estrategias hasta llegar a un cloud natural, veremos una etapa de transición de por lo menos dos años. Tras ese periodo, veremos compañías que ya harán cloud al 100%”, concluyó Rentería.

Por Karina Rodríguez y José Luis Becerra

Leer más...



¿Cómo impacta la seguridad en la transformación digital?: Mesa Redonda

Categorías relacionadas:
Administración, Administración, Administración del riesgo, Aplicaciones, Cómo hacerlo, Continuidad de negocios, CSO, Estrategia CIO, Estrategias, Inversiones, Lo más reciente, Malware y Amenazas, Mejores prácticas, Mejores prácticas, Políticas y normas, Principal, Protección de datos, Reporte Especial, Seguridad, Seguridad, Seguridad, Tecnologías, Tendencias, Tendencias, Transformación digital, Transformación digital

mesa-fortinet

Estamos viviendo en un mundo cada vez más digital que nos obliga a transformar el modo en que se realizan los negocios. Sin embargo, en este proceso de innovación muchas veces se deja fuera uno de los aspectos más importantes: la seguridad digital.

Esta transición hacia un modelo de negocio digital es uno de los aspectos más desafiantes de la seguridad actual, donde los responsables de las áreas de TI deben ser capaces de proteger la viabilidad de la organización y explorar el potencial tecnológico como agentes de cambio, pero, ¿de qué manera se pueden integrar los elementos de seguridad de los diversos elementos de la empresa para sean cohesivos y coherentes, a manera de un ambiente colaborativo?

En la mesa redonda realizada por CIO México y patrocinada por Fortinet, asistentes se dieron cita para debatir los retos y oportunidades de las compañías para implantar la seguridad en el paso hacía la transformación digital.

Personas, el principal reto actual de seguridad

Los retos a los que se enfrentan las compañías actualmente en cuestiones de seguridad son muy amplios, sin embargo, algo de lo que diferentes ejecutivos concordaron es que, dentro de las 3Ps que relacionan con la Transformación Digital: Personas, Procesos y Producto, las personas son el principal desafío.

“El principal reto que hemos tenido en cuestiones de seguridad tiene que ver con que la gente de todo el corporativo se sienta parte del proyecto, que no lo dejen sólo como parte del área TI, y que cuando surge un problema, TI es quién lo tiene que solucionar. Se trata de un esfuerzo en conjunto de todo el grupo”, comentó Efraín Baldenebro, Information Security Risk Manager for Global Banking and Market de Grupo HSBC.

EfrainBaldenebro-HSBC

Efraín Baldenebro, Information Security Risk Manager for Global Banking and Market de Grupo HSBC.

Por su parte, Israel Ramírez, Director de Calidad y Control de Servicios para Sistemas y Operaciones de BBVA Bancomer, afirmó que dentro de su división de Transformación Digital, se encuentran trabajando en un proyecto de BI que les permita ofrecer servicios a clientes de manera más personificada y simplificada, donde se están enfrentando al reto de montar todos estos procesos nuevos bajo un marco de seguridad. “Para nosotros muchas veces lo más importante es que el producto esté funcionando, pero sin perder de vista la seguridad. Tenemos que balancear que, al momento de que los proyectos estén funcionando, salgan con las pruebas positivas”, aseveró.

Israel Ramírez, director de Calidad y Control de Servicios para Sistemas y Operaciones de BBVA Bancomer.

En SAPV Peña Verde, Gilberto Gonzaga,  CIO Director Corporativo de TI de esta empresa, afirmó que se encuentran trabajando en el tema de Seguridad como Cultura, aplicándolo en cada proceso de negocio, dentro y fuera de TI. “Actualmente tenemos muchos puntos de contacto que a veces no podemos proteger, como los dispositivos personales con información que conectan en cualquier red y regresa infectado a la organización. Se tratan de puntos delicados donde estamos llevando nuestra atención para poder mejorar la seguridad”, aseveró.

Además, agregó que sin educación del personal, todos los esfuerzos en tecnología son inútiles. “Creo que todos estamos de acuerdo en que el eslabón más débil de la seguridad es el usuario. Nosotros tenemos todo un apartado para regular la cultura organizacional, desde temas de difusión y capacitación. De nada sirve que tengamos grandes soluciones de seguridad si el usuario llega y comparte su password o toma una foto a su pantalla”, explicó.

Gilberto Gonzaga, CIO Director Corporativo de TI de SAPV Peña Verde.

Cabe destacar que si bien se está consciente de que ningún software es 100% confiable, los errores humanos son actualmente, según Fortinet, la principal  fuente de fugas de información, por lo que Eduardo Zamora, Country Manager de esta firma, se mostró satisfecho de que los asistentes tomarán en cuenta el valor de la cultura en seguridad, ya que, según el ejecutivo, las personas son el eslabón más débil actualmente, y en el que se de prestar mayor atención.

“La seguridad es un proceso que siempre debe empezar por cultura, por la gente. No sólo se trata de la mejor tecnología, primero educas a la gente, después  implementas una arquitectura alrededor del proyecto. Si no se educa primero a la gente, tengan por seguro que no va a funcionar”, aseveró.

Eduardo Zamora-Fortinet

Eduardo Zamora, Country Manager de Fortinet.

El valor de la Seguridad para la organización

A pesar de que en los negocios de hoy en día, la tecnología ha sido reconocida como una fuerte arma para seguir vigente en el mercado, cuestiones como la inversión en seguridad aún son vistas como un mal necesario, cuando en realidad puede ser un gran impulsor de la ventaja competitiva, generando el engagement de los clientes, al menos así lo destacó Víctor Almaraz, Gerente de Seguridad de la Información de Grupo Actinver, quien considera este factor entre uno de sus principales desafíos.

“La seguridad no es solamente cumplir, es una ventaja competitiva. Cuando nosotros podemos garantizarle al cliente la seguridad de sus datos, vamos a generar en él la confianza y la preferencia que siempre buscamos como negocio”, afirmó Almaraz.

Víctor Almaraz, Gerente de Seguridad de la Información de Grupo Actinver.

La idea fue secundada por Oscar Salgado, CIO del Grupo Mexicano de Seguros, quien afirmó que gracias a las nuevas tecnologías que tienen que ver con la transformación digital, como big data e internet de las cosas, aumenten la necesidad de proteger todo el espectro de la compañía, haciendo que la seguridad perimetral tradicional ya no sea suficiente. Garantizar esa protección, ayudará a aumentar la satisfacción del cliente. “La seguridad a nivel usuario es valiosísima, el modo en que le ofrecemos seguridad a los clientes que nos comparten sus datos es darles una calidad de servicio”, puntualizó.

Oscar Salgado, CIO del Grupo Mexicano de Seguros.

Madurez de seguridad en cada uno de los procesos tecnológicos es el reto que se afronta Leopoldo Hidalgo, Subdirector de Seguridad Informática de Bancomext, quien destacó la relevancia de la sensibilidad con la que se deben manejar los datos, sin importar desde dónde se esté accediendo. “El poder asegurar que las aplicaciones móviles y web para nuestros clientes estén protegidas, con diferentes mecanismos que nos permitan garantizar la seguridad en cada uno de los puntos de acceso es clave”, comentó, agregando que la cultura se seguridad en el usuario, es otro de los factores de preocupación no sólo para ellos, sino cualquier institución financiera.

Leopoldo Hidalgo, Subdirector de Seguridad Informática de Bancomext.

El reto de obtener presupuestos

Sin embargo, los presupuesto y el valor de la protección aún es una materia pendiente para otras organizaciones, tal es el caso de Crédito Familiar que, al ser una filial de banco, no se obtiene el mismo ritmo de innovación e inversión que les permita la realización de proyectos innovadores, al tener que atravesar un sinnúmero de filtros que probablemente al regresar al grupo, necesita de correcciones o actualizaciones.

Ana Montiel, Subdirectora de Sistemas Crédito Familiar.

“En Crédito Familiar se ha invertido poco en tecnología, tenemos un rezago que nos impide a su vez estar en la vanguardia en seguridad. El reto para nosotros es alcanzar este rezago, ya que si bien todos sabemos que la seguridad es importante, aún no podemos balancear los gastos con la necesidad de estar actualizado”, comentó Ana Montiel, Subdirectora de Sistemas Crédito Familiar.

Pero no todo se trataba de retos entorno a seguridad, también existían aquellos que tienen que ver con acelerar el ritmo de innovación, tal era el caso de AIG Chartis, donde, según Julio Estrada, AVP Operations & Systems, Mexico & LAD North de esta empresa, la prioridad ahora tiene que ver con la construcción de una estrategia digital con visión a cinco años. “En el área TI nos dimos cuenta que teníamos un fuerte rezago tecnológico de unos 10 años, por lo que tenemos el desafío de renovar nuestra infraestructura para dejar ese rezago atrás, trabajando con metodologías ágiles para poder liberar productos más rápidamente”, afirmó.

Para la protección de información, Estrada recomendó poner inversiones tangentes en cuestiones de balancear el costo que se tendría ante una brecha, a fin de convencer a la alta gerencia de apostar por la protección de la información. “Estar fuera de línea o tener un incidente de seguridad o pérdida de datos, tiene un impacto monetario, pero más que eso, es un impacto en reputación y confianza del cliente”, puntualizó.

Julio Estrada, AVP Operations & Systems, Mexico & LAD North de AIG Chartis.

A Isaac Moran, Jefe de TI de Genomma Lab, además de estos aspectos, se ha servido de retomar noticias que suceden día a día en ataques a nivel mundial, como el pasado WannaCry o Petya, que ayudan a justificar sus inversiones en protección. “Todos estos factores, así como el aumento en ataques nos ha ayudado a que la alta dirección nos apoye en seguridad”, comentó.

Isaac Moran, Jefe de TI de Genomma Lab.

Efraín Baldenebro recomendó implementar tres líneas de defensa que han servido en el banco: control de riesgo, quienes identifican las amenazas; expertos en cada uno de los riesgos, quienes entran como consultores y ayudan a mitigarlos; y el tercero que es auditoria interna, que ayuda a conjuntar esfuerzos de protección. “Se trata de un modelo que nos ha ayudado en el control de amenazas”, comentó.

Por último, Fortinet afirmó tener los recursos necesarios para ayudar a todas las empresas a cubrir sus necesidades de seguridad en camino a la transformación digital, tanto en cuestiones de tecnología con soluciones adaptables a sus requerimientos, con actualizaciones y mejoras continuas, como con mejores prácticas. Además de sus soluciones especializadas, cuenta con FortiLabs, donde una serie de expertos se encuentra en búsqueda constante de ataques antes de que afecten a clientes, se monitorean actividades en búsqueda de acciones anormales, entre otras medidas de protección para estar siempre un paso adelante de los criminales cibernéticos.

Karina Rodríguez, Computerworld México

Leer más...



Alternativas para ser productivo en el ecosistema tecnológico

Categorías relacionadas:
Colaboración, Del día, Destacado, Lo más reciente, Medios sociales, Movilidad, Movilidad, Seguridad, Software empresarial, Tendencias

La productividad en cualquier ámbito de nuestra vida es un factor fundamental para cumplir con nuestros objetivos, y en este caso, seleccionar las herramientas tecnológicas que nos ayudan a conseguir nuestras metas también significa algo relevante.

El uso en la oficina y en el móvil de aplicaciones y servicios es imprescindible, las soluciones creadas desde Redmond nos permiten ser productivos sin importar el tiempo y lugar en el que trabajemos, además de que podemos utilizar cualquier dispositivo para llevar a cabo nuestras actividades. En el ecosistema tecnológico hay una diversidad de opciones, pero es posible tener todo a la vez y de manera eficaz.

Tener una oficina móvil es el objetivo que cumple Office 365, al estar sincronizado con la nube, entonces, ¿usas una opción gratuita en línea para crear y editar documentos? Escribir textos, hacer presentaciones, crear tablas para generar estadísticas, hacer notas sofisticadas que pueden incluir audio, imágenes y anotaciones manuales, narrativas audiovisuales y demás es posible.

Office 365 se adapta a cualquiera de sus requerimientos: tareas escolares, presentaciones ejecutivas, análisis de datos (pueden usar Excel y Power BI para entender datos y tomar decisiones acertadas), diseño de publicaciones y muchas más actividades que no están disponibles de manera gratuita en el entorno tecnológico. Si necesitan ser productivos con calidad, una suscripción a Office 365 se ajusta su forma de trabajo en los dispositivos que utilizan a diario.

No todos los servicios de email en línea son iguales. Comunicarse de manera organizada a través Outlook significa clasificar los mensajes de acuerdo con nuestras prioridades y contar con variadas funciones para enviar contenidos email desde un texto hasta composiciones más completas. Además, la organización de contactos y actividades se efectúa de forma eficiente con herramientas como el calendario o menciones, o la posibilidad de tener Skype en la misma página.

Tener un hub en la nube también es impórtate, con ello podemos integrar todo el contenido que nos comparten, creamos y compartimos, para este apartado ofrece OneDrive, los usuarios con cuenta Microsoft o sin ella, pueden acceder a diversas clases de documentos, leerlos y editarlos. Trabajar de manera simultánea siempre permite una colaboración de calidad.

¿Hay que establecer los detalles de una reunión después de que el equipo editó una presentación en tiempo real? La solución es una videollamada grupal para que todos los colaboradores den sus opiniones, ya sea que se conecten desde una laptop o un teléfono móvil.

Trabajan de madrugada en su computadora y de repente deben llamar a un número fijo en otro país que se encuentra en un continente distinto. Para llamar fuera de otro territorio es viable usar el crédito Skype para realizar la llamada.

Finalmente, navegar por la red de manera inteligente es una realidad al usar Microsoft Edge, pues no se limita a la visualización y guardar marcadores –justo como sucede en otros navegadores en los que no se considera la versatilidad actual de los contenidos en la red, al igual que los dispositivos nuevos–, ser productivos no requiere de un esfuerzo complicado, sólo es fundamental poseer las herramientas correctas para realizar nuestras tareas, tener una cuenta Microsoft da la posibilidad de trabajar y colaborar con eficiencia.

N. de P. Microsoft

Leer más...



Reporte Especial: Cómo obtener el máximo valor y calidad de los datos

Categorías relacionadas:
Administración, Administración de proyectos, Administración de proyectos, BI y analítica, BI y analítica, BI y analítica, BI y analítica, Big data, Big Data, Big data, Cómo hacerlo, Estrategia CIO, Innovación, Inversiones, Lo más reciente, Lo más reciente, Mejores prácticas, Mejores prácticas, Principal, Reporte Especial, Reportes e investigaciones, Tendencias, Tendencias

Big-Data-analitica

El término “Big Data” apareció por primera vez en 1997 en un documento de la NASA titulado Application-Controlled Demand Paging for Out-of-Core-Visualization, en el cual Michael Cox y David Ellsworth explicaban cómo se habían topado con la dificultad de visualizar grandes cantidades de información.

Dos décadas después de aquel hecho, en este 2017 se puede afirmar que, al igual que los dispositivos móviles y la nube, el Big Data y la analítica avanzada han cambiado a las organizaciones y a los procesos empresariales, aunque en países como México, falta un largo trecho por recorrer.

Claudia Medina, Gerente de Investigación de Enterprise en IDC México, afirma que sólo el 8% de las empresas en nuestro país tienen una estrategia completa en esta tecnología. “Hemos sondeado las preferencias de los directivos del área de TI y estimamos que, tan sólo en 2016, un 23% de las empresas estaban pensando en implementar una estrategia de Big Data y/o analítica. De este porcentaje, un 13% estaba planeando hacerlo en los siguientes meses bajo esquemas de contratación como es cloud, que se está fusionando bastante con los temas de Big Data y analítica”.

En efecto, el año pasado las organizaciones llevaron cada vez más los proyectos de análisis de datos a la producción, buscando la capacidad de aprovechar mejor los datos internos y externos o para comprender mejor a sus clientes aumentando la eficiencia.

Un informe de IDC señala que sólo el 1% de los datos a nivel mundial que circulan está siendo analizado, y para el 2020, se estima que habrá unos 30 millones de dispositivos conectados a la red generando información.

En específico, los ingresos calculados por IDC para las soluciones de Big Data y analítica pasarán de los 122,000 millones de dólares actuales a 187,000 millones de dólares previstos para el 2019, lo que supone un aumento de más del 50% en cinco años. Los servicios relacionados con estas tecnologías moverán más de la mitad del total. Asimismo, el gasto en Big Data y analítica alcanzará los 187,000 millones de dólares para ese año, según la firma consultora.

Reporte-Especial-Claudia-Medina-IDC-Mexico

Claudia Medina, Gerente de Investigación de Enterprise en IDC México.

Pero más que un gasto, los recursos destinado a Big Data y/o analítica deben ser visto como una inversión, porque este tipo de soluciones nos ayuda a darle valor a la información de modo que ésta sea de fácil consulta, sea oportuna e impacte diversas áreas de la organización. “Incluso puede llegar a significar –en una etapa avanzada– una monetización del análisis, esto es, que se puedan generar alianzas o estrategias de venta cruzada, o vender las tendencias de información que está arrojando la analítica de los datos”, como asevera Claudia Medina, de IDC México.

Además, “los proyectos de Big Data y analytics van más allá de la tecnología, de manera que los factores del éxito o fracaso de este tipo de proyectos tiene más que ver con una definición y alineación de los objetivos de negocios que se están buscando”, afirma por su parte Sergio Mandujano, Director de Preventas y CTO de CA Technologies en México.

Según este directivo, el éxito de los proyectos de Big Data guarda una relación directa con la calidad de la información que se esté procesando, de tal forma que si ésta tiene una calidad adecuada, los análisis por medio del uso de la misma también pueden tener la asertividad que se necesita.

Por el contrario, señala que cuando una aplicación se relaciona con volúmenes de información altos, hay un mayor riesgo de que el desempeño de ese aplicativo no sea el que se espera. “Es por ello que todas las organizaciones deben considerar el tema de experiencia de usuario, de tal forma que puedan garantizar que el manejo de grandes volúmenes de información no impacte el rendimiento de las aplicaciones y puedan obtener una experiencia de usuario adecuada para lograr los objetivos que buscan”, considera Mandujano.

¿Cómo puede ser rentable el Big Data?

La transformación digital, proceso actualmente en boga, pasa por diferentes áreas: la experiencia del cliente, los puestos de trabajo de los empleados, la cultura de la empresa… pero como “ladrillo” que sustenta el edificio aparece el Big Data. Así lo señala el informe The Big Data Payoff: Turning Big Data into Business Value, elaborado por Informatica y Capgemini: “Las empresas que más progresan con el uso de iniciativas de Big Data son aquellas que tienen un modelo de gobernanza bien estructurado, un enfoque disciplinado hacia la implementación y una alta dirección comprometida”.

Este informe se sustenta en más de 200 encuestas aplicadas a ejecutivos senior de TI y de gestión de datos, y en él se afirma que menos de un tercio (27%) de los proyectos de Big Data son actualmente rentables, ¿cómo es posible esto?

Todo indica que el “factor” que correlaciona la rentabilidad con el Big Data está determinado por “quién gobierna” la estrategia. Según la encuesta, tanto los COO (Directores de Operaciones) como los CDO (Directores de Datos) tienen el doble de posibilidades que los CIO (Directores de TI) de llegar a dirigir proyectos rentables de Big Data

Reporte-Especial-Sergio-Mandujano-CA-Technologies

Sergio Mandujano, Director de Preventas y CTO de CA Technologies en México.

Más de la mitad de los encuestados declaró que los CIO son los responsables de la estrategia de Big Data en sus organizaciones, aunque parece que esta responsabilidad también se extiende a otras líneas de negocio, tal como refleja la posible intervención del COO (en el 20% de los casos consultados), del CTO (Director de Tecnología, con 16%) y del CMO (Director de Marketing, con el 16% de las respuestas).

Esto nos da idea de que existe una influencia –cada vez mayor– de otras áreas de negocio en las iniciativas de Big Data; además, las organizaciones que ya están obteniendo resultados de sus iniciativas de Big Data tienden a ser más eficientes en su esfuerzo por mejorar la calidad de los datos y el gobierno de los mismos, y en la aplicación de mejores normas dentro de la organización.

En efecto, tres cuartas partes (75%) de las empresas consultadas que afirmaron obtener rendimientos con el Big Data, señalaron que su progreso en la mejora de la calidad y el gobierno de los datos es “excelente” o “muy satisfactorio”, en comparación con el 50% que así lo considera del total de la muestra.

También un 75% de este segmento dijo que el área de estandarización y la mejora de la cohesión en la empresa son “excelentes” o “muy buenos”, en comparación con el 47% del total de encuestados.

Personal especializado en datos, principal carencia

Si bien existe un mercado potencial para crecer las aplicaciones de Big Data y/o analítica en nuestro país, es evidente que hay un factor clave que determinará su desarrollo: la escasez de mandos medios, llámense ingenieros de datos, analistas de datos e incluso los ejecutivos necesarios para gestionar este tipo de iniciativas.

En 2016, las organizaciones e instituciones ampliaron sus esfuerzos para capacitar, contratar y retener profesionales del sector, el Data Scientist (Científico de Datos) se ha convertido en una de las carreras más demandadas y de alto perfil en TI, ya que las empresas buscan la capacidad de hacer predicciones basadas en datos. Pero todavía no existe una forma única para convertirse en uno.

Y a medida que la demanda de los profesionales de análisis de datos explota, las universidades se apresuran a llenar el vacío con títulos de posgrado en Big Data.

Sin embargo, tanto los profesionales experimentados en la materia como las personas que buscan contratarlos están teniendo dificultades porque las organizaciones a menudo no entienden el papel del científico de datos y cuáles deberían ser sus responsabilidades.

Los científicos de datos pueden ser escasos, pero también lo son los gerentes que entienden la ciencia de los datos. Es por ello que el aprendizaje de máquina (machine learning) puede ayudarles a detectar oportunidades para el uso de estas disciplinas en la optimización de sus negocios.

Por su parte los directivos empresariales, acostumbrados a tomar decisiones basadas en instintos, tienen problemas para confiar en las ideas de datos y análisis. Esto no debería sorprendernos, pues las organizaciones que están llevando a fase de producción sus iniciativas de análisis de datos están aprendiendo qué preguntas deben hacer para asegurarse de que están utilizando las tecnologías, herramientas y plataformas adecuadas.

La información, ¿un valor intangible?

Esta es la pregunta que podrían formularse muchos CIO y responsables del manejo de grandes cantidades de datos al momento de proponer o justificar la puesta en marcha de un proyecto de Big Data o analítica.

Al respecto, un informe de la consultora Gartner sobre la creciente importancia de los datos y analítica advierte que, a pesar de que la información posiblemente cumpla con los criterios formales de un activo comercial, las prácticas contables actuales no permiten a las organizaciones capitalizarlo. En otras palabras, el valor de la información de una organización en general no se puede encontrar en ninguna parte del balance contable.

“Incluso en medio de la era de la información, esta no es tenida en cuenta por los que se encargan de hacer la valoración del negocio”, asegura Douglas Laney, Vicepresidente de Investigación en Gartner. Sin embargo, dijo que en los próximos años los responsables de valorar las inversiones corporativas “estarán obligados a considerar la riqueza de información de una empresa de forma adecuada”.

Reporte-Especial-Douglas-Laney-Gartner

Douglas Laney, Vicepresidente de Investigación en Gartner.

Un estudio de esta firma muestra que las compañías con una estrategia informática –como la contratación de un Jefe de Datos (CDO), la formación de equipos de ciencias de datos y la participación en la gobernanza de la información empresarial– están muy por encima del promedio del mercado.

“Cualquier persona que valore adecuadamente un negocio en el mundo cada vez más digital debe tomar nota de sus capacidades de datos y análisis, incluyendo el volumen, variedad y calidad de sus activos de información”, asevera Laney.

Inicialmente, Gartner señaló que los analistas de equidad e inversionistas institucionales considerarán sólo las capacidades técnicas de análisis y datos técnicos de una empresa y cómo su modelo de negocio proporciona una plataforma para capturar y aprovechar la información y no el valor real de sus activos de información.

Gartner afirma que los consejeros y directores ejecutivos no deben retrasar la contratación o nombramiento del Chief Data Officer o su equivalente para comenzar a optimizar la recopilación, generación, gestión y monetización de los activos de información antes de que los analistas de capital empiecen a hacer preguntas.

Por otra parte, la firma pronosticó que para 2019, se presentarán 250,000 solicitudes de patentes que incluyen reclamaciones de algoritmos. Las patentes de algoritmos se otorgan en Estados Unidos, la Unión Europea y muchos otros países. Cabe aclarar que no todos los algoritmos pueden ser patentados, pero muchos sí, incluso si las reglas de aplicación no son sencillas.

Para el año 2020, se estima que podría haber casi medio millón de solicitudes de patentes que mencionen “algoritmo” y más de 25,000 solicitudes de patentes para los propios algoritmos. Por ahora, de las 40 organizaciones que patentan la mayoría de los algoritmos de los últimos cinco años, treinta y tres son empresas y universidades chinas. La única compañía occidental dentro de las primeras 10 es IBM, que ocupa el décimo lugar.

“Pero a pesar de su creciente importancia, muchos grandes algoritmos en la empresa todavía están en la sombra y muchos directivos no lo valoran”, afirma Laney. “Los algoritmos pueden marcar la diferencia, basta al algoritmo PageRank de Google, el mp3 o el blockchain, como ejemplo de ello”.

Gartner recomienda que los responsables de análisis de datos trabajen junto a los directores empresariales para adoptar y desarrollar metodologías para valorar algoritmos y evaluar aquellos que deben ser patentados.

Razón de ser y desafíos

Por lo expuesto en este reporte, es evidente que tanto el Big Data como la analítica avanzada están transformando a las organizaciones. Éstas, decididas a ganar una ventaja competitiva –o simplemente seguir siendo competitivas– han invertido fuertemente en servicios, tecnología y personas, y la tendencia no muestra signos de que vaya a disminuir. “El objetivo final de Big Data y Analytics es crear fuentes adicionales de ingreso para las organizaciones ya sea ampliando el espectro de los servicios existentes hacia nuevos mercados o desarrollando servicios innovadores basados en los hábitos de consumos de sus clientes y usuarios, determinados a partir de los análisis de datos”, señala Sergio Mandujano, de CA Technologies.

Sin embargo, aún deben salvar al menos tres desafíos expuestos por Claudia Medina, de IDC México: 1) La integración de la información; 2) lograr calidad y estructura adecuada de la información; y 3) la seguridad de la misma. “Cuando se habla hoy de Big Data y analítica, nos referimos a que, mediante el análisis de datos históricos, se pueda tener visibilidad de lo que va a suceder, anticiparse a algunos hechos y tener la capacidad de reacción para implementar las estrategias adecuadas”, aseveró la analista.

RECUADRO

El Big Data como valor para la organización

Existen dos fases en los proyectos de Big Data: los que están en punto de equilibrio (de los cuales no se obtiene ni pérdidas ni ganancias) y los que de plano están generando pérdidas.

Sabemos que la mayoría de las organizaciones aún no están basadas en el conocimiento de sus datos, sin embargo, “poner en práctica el Big Data no es tan complejo como pudiera parecer, especialmente teniendo en cuenta los resultados positivos que se pueden recibir”, señala el estudio The Big Data Payoff: Turning Big Data into Business Value, elaborado por Informatica y Capgemini.

El estudio describe cuatro cimientos estratégicos que han seguido las organizaciones al emplear el Big Data de forma exitosa:

  1. Garantizar el respaldo y la intervención de los principales ejecutivos de la organización en las iniciativas de Big Data. Cualquier cargo por debajo del comité ejecutivo no es suficiente para impulsar cambios de valor duraderos.
  2. Ampliar la arquitectura de la información mediante la modernización de los sistemas de almacenamiento de datos, al tiempo que se integran las tecnologías nuevas de Big Data.
  3. Crear una estructura de gobierno de la estrategia de datos sólida y colaborativa, que propicie la agilidad organizativa, a la vez que sume la seguridad y la calidad de los datos.
  4. Fomentar una cultura corporativa que sea dinámica, que se fundamente en el uso de los datos e involucre tanto a la alta dirección como al resto de los empleados desde las primeras fases de desarrollo, utilización y mejora de las soluciones de Big Data.

____________________________

Por José Luis Becerra Pozas, CIO México

Leer más...