10 razones por las que debería integrar el código abierto en sus proyectos

Categorías relacionadas:
Administración, Administración, Administración de proyectos, Administración de proyectos, Cómo hacerlo, Estrategia CIO, Innovación, Lo más reciente, Lo más reciente, Principal, Sistemas operativos, Tendencias, Tendencias

CIO-codigo-abierto

El código abierto influye estratégicamente en las empresas. De acuerdo con una encuesta realizada por North Bridge & Black Duck, el 90% de las empresas participantes afirmó depender de éste para mejorar su eficiencia, innovación e interoperabilidad. A esto se suman otros valores percibidos como la flexibilidad, no depender de un solo proveedor, las capacidades técnicas competitivas, la agilidad para adaptarse y la calidad.

Si se observa el entorno de negocios mundial, uno se puede dar cuenta de que las empresas emergentes (startups) más exitosas no utilizan software propietario sino abierto, lo que les brinda una mayor capacidad de innovar y madurar. Por su parte, las empresas tradicionales y monolíticas han descubierto que no pueden quedarse fuera del juego y están recurriendo al open source, a fin de impulsar su competitividad, reaccionar a los cambios del mercado y satisfacer a sus clientes.

Este escenario les ha planteado a los responsables de dirigir las iniciativas tecnológicas – los directores de Tecnologías de Información (CIO) – el desafío de abrirse a nuevas posibilidades y dejar atrás la percepción que el resto de las unidades de negocio tienen de ellos: ser quienes mantienen las cosas funcionando y que se niegan a implementar soluciones abiertas.

Hoy, los CIO tienen la oportunidad de agilizar la entrada de sus empresas a la era digital. Si algunos de estos líderes aún están renuentes a integrar el código abierto en sus proyectos, a continuación, se presentan 10 razones para dar el paso.

1. Seguridad

Las empresas pueden incrementar su seguridad si utilizan código abierto, gracias a que más profesionales y desarrolladores supervisan constantemente su integridad. El trabajo de las comunidades open source es mantener el control de las soluciones abiertas, así como monitorear y solucionar las vulnerabilidades.

2. No depender de un solo proveedor

Los estándares abiertos evitan depender de un solo proveedor de software. Asimismo, tienen la libertad de reemplazar una pieza del código abierto por otro si éste es más innovador. Además, la habilidad que obtienen las organizaciones para gestionar sus sistemas abiertos permite reducir las fallas y lograr una mejor consolidación de sus componentes.

3. Tecnología de punta

En los ecosistemas de código abierto participa una gran comunidad de usuarios y proveedores, por lo que el gobierno y control de un proyecto no los acapara una sola parte. De hecho, la ingeniería y desarrollo que se realiza dentro de las comunidades tiene un beneficio directo en las organizaciones y, al mismo tiempo, se evita el riesgo de depender de software inmaduro.

4. Soporte amplio

Algo que siempre ha preocupado a los CIO es la rapidez de respuesta del equipo de soporte (help desk) de las compañías de tecnología. En el mundo del código abierto, hay disponible soporte de clase empresarial; existen firmas como Red Hat que pueden brindar servicios de manera expedita y constante para llevar un proyecto open source a una implementación exitosa, así como consultoras y grupos de desarrolladores distribuidos por todo el mundo. Al tener mayor número de opciones, es posible negociar precios más flexibles.

5. Personal especializado a la mano

Son cada vez más las universidades en el mundo que están integrando el código abierto en sus planes de estudio. Y a medida que aumenta su uso en las empresas, son más los profesionales certificados –en Linux, Hadoop y OpenStack– que se integran al equipo liderado por los CIO. De igual modo, los líderes de TI pueden contar con una reserva de especialistas con diferentes niveles de experiencia, capaces de ocupar las posiciones disponibles.

6. Menores costos

Los CIO pueden ahorrar en rubros como licenciamiento, mantenimiento y soporte. El costo total de propiedad del código abierto normalmente es mucho menor al del software propietario debido a que los proveedores comerciales imponen, entre otras cosas, una cuota por concepto de pruebas industriales.

7. Menos acuerdos legales

El equipo de desarrolladores del CIO puede tener acceso sencillo al código abierto desde repositorios como Github o GitLab, sin tener que firmar onerosos acuerdos legales. Y es que a medida que un mayor número de personas usan y prueban el software abierto, se descubren más pronto problemas y vulnerabilidades y, en consecuencia, se resuelven en el corto plazo.

8. Amplio respaldo de herramientas y grupos de expertos

Los proyectos de código abierto son numerosos en todo el planeta – empresas y gobiernos son ahora casos prácticos reconocidos; sus logros y beneficios están teniendo resonancia en medios digitales e impresos. Cuanto más popular es el proyecto, mayor es la experiencia en el uso del software abierto así como la disponibilidad de herramientas para el monitoreo, el análisis de registros y la gestión de configuraciones.

9. Es más sencillo hacer extensiones internamente

El código abierto les da flexibilidad a los desarrolladores. Por ejemplo, pueden “tomar” un programa que contenga una copia del código ya escrito, trabajar en él y tratarlo como un proyecto totalmente separado. Asimismo, pueden darle un nuevo nombre, y los cambios que se le hagan se reflejarán sólo dentro de esa “extensión”. Los desarrolladores realizan este proceso con frecuencia, pues muchas veces las organizaciones quieren desarrollar versiones a la medida de my SQL, por ejemplo, para su propio uso y no desean compartirlas.

10. Sin restricciones geográficas

En ciertos países hay restricciones en cuanto al licenciamiento del software comercial, y el CIO también se puede topar con licencias regionales que imponen límites. Con el código abierto esas limitaciones son inexistentes, lo cual permite realizar proyectos globales, así como hacer negocios y colaborar con otras empresas en cualquier lugar del mundo.

De la mano de los líderes de TI, las empresas de todos los sectores pueden realizar el trayecto hacia su transformación digital. De hecho, hoy el 100% de las compañías Fortune 500 de las industrias de banca, servicios financieros, salud, telecomunicaciones y aviación innovan, desarrollan y responden rápidamente a los cambios de su entorno de negocios gracias a la agilidad que le dan las soluciones empresariales de código abierto de Red Hat.

En México, organismos como el Gobierno del Estado de Jalisco, la Bolsa Mexicana de Valores (BMV), el Instituto de la Función Registral del Estado de México (IFREM), y la Universidad Autónoma Metropolitana (UAM) son casos de referencia respecto al uso y aprovechamiento del código abierto en entornos de negocio.

-Olivia Salas, Regional Marketing Manager de Red Hat México

Leer más...



Reportan primeros ataques a bases de datos Hadoop y CouchDB

Categorías relacionadas:
Amenazas, CSO, Del día, Destacado, Estrategias, Lo más reciente, Lo más reciente, Malware y Amenazas, Protección, Protección de datos, Seguridad, Seguridad

ataques-hadoop

Sólo era cuestión de tiempo para que los grupos de ransomware –que borraron datos de miles de bases de datos de MongoDB y de Elasticsearch– comenzaran a apuntar a otras tecnologías de almacenamiento: los investigadores ya están observando ataques destructivos similares golpeando accesos abiertamente accesibles de Hadoop y de CouchDB.

Los investigadores de seguridad Victor Gevers y Niall Merrigan, quienes supervisaron los ataques de MongoDB y Elasticsearch, han comenzado a hacer un seguimiento de las nuevas víctimas de Hadoop y CouchDB. 

Los dos han reunido hojas de cálculo en documentos de Google donde documentan las diferentes formas de ataque y los mensajes que quedan después de que los datos se borran de las bases de datos.

¿Sólo actos “vandálicos”?

En el caso de Hadoop –que es un marco utilizado para el almacenamiento distribuido y el procesamiento de grandes conjuntos de datos–, los ataques observados hasta ahora pueden ser descritos como vandalismo. Esto se debe a que los atacantes no piden que se realicen pagos a cambio de devolver los datos eliminados. En vez de ello, su mensaje indica a los administradores de Hadoop que aseguren sus despliegues en el futuro.

Según el último recuento de Merrigan, hasta ahora 126 casos han sido borrados de Hadoop. Es probable que el número de víctimas aumente ya que hay miles de despliegues de Hadoop accesibles desde Internet, aunque es difícil decir cuántos son vulnerables.

Cabe recordar que los ataques contra MongoDB y Elasticsearch siguieron un patrón similar. El número de víctimas de MongoDB saltó de cientos a miles en cuestión de horas. El último recuento pone el número de bases de datos borradas de MongoDB en más de 34,000 y el de Elasticsearch en más de 4,600.

Un grupo llamado Kraken0, responsable de la mayoría de los ataques de ransomware contra bases de datos, está tratando de vender su kit de herramientas de ataque y una lista de instalaciones vulnerables MongoDB y Elasticsearch por el equivalente a 500 dólares en bitcoins.

Rescate por 100 dólares

En el caso de CouchDB –una plataforma de bases de datos similar a MongoDB­–, el número de bases de datos borradas está creciendo rápidamente y llega a más de 400 hasta ahora. A diferencia del vandalismo de Hadoop, los ataques de CouchDB se acompañan de mensajes de rescate a los atacantes pidiendo 0.1 bitcoins (alrededor de 100 dólares) para devolver los datos. Se aconseja a las víctimas no pagar porque, en muchos de los ataques de MongoDB, no había pruebas de que los atacantes hubieran copiado los datos antes de eliminarlos.

Tras haber observado los ataques, los investigadores de Fidelis Cybersecurity publicaron una entrada en su blog con más detalles y recomendaciones sobre cómo asegurar dichos despliegues. 

Leer más...



10 tendencias en TI que marcarán el 2017

Categorías relacionadas:
Aplicaciones, BI y analítica, BI y analítica, Big Data, Cómo hacerlo, Cloud Computing, Cloud Computing, Cloud computing, Comercio móvil, Del día, Desarrollo, Energía, Estrategias, Infraestructura, Lo más reciente, Lo más reciente, Movilidad, Movilidad, Seguridad, Seguridad, Software empresarial, Tecnologías, Tendencias, Tendencias, Transformación digital

infraestructura-transformacion-digital

No es de extrañar todo lo que 2017 se verá afectado por el gran paso hacia la transformación digital. En este contexto, las tendencias que enumero en este año que inicia las organizo en tres categorías principales. La primera es Tendencias de centros de datos, seguidas de Tendencias tecnológicas y Tendencias de TI, OT y IoT. Aquí un resumen.

Tendencias de centros de datos

  1. Las ganancias se verán reflejadas en la productividad, y esto dependerá más de la gente, el proceso y el negocio

A pesar de la explosión de nuevas tecnologías en los últimos 10 años, la productividad ha disminuido en comparación con los 10 años anteriores, incluso en los países que se consideran los más expertos en tecnología. Esto según la OCDE (Organización para la Cooperación y el Desarrollo Económico).

La productividad del trabajo, o producción por hora, se calcula dividiendo un índice del producto real por un índice de horas trabajadas. Aunque las TI se han vuelto más rentables en términos de gestión de infraestructura, esto no se ha traducido en incrementos en bienes y servicios empresariales. Las TI comenzarán a medirse en resultados empresariales en lugar de cuántos Terabytes pueden ser administrados por FTE = Empleado de Tiempo Completo (Full Time Employee). La esperanza de la transformación digital es revertir esta tendencia en productividad.

  1. La transformación ágil de las TI

El mantra para las TI es hacer más con menos y hacer más, mucho más rápido. Las empresas están bajo una tremenda presión para transformarse y eso significa implementar nuevas aplicaciones y plataformas innovadoras para todos los aspectos de su negocio. Más ejecutivos de TI están adoptando metodologías ágiles. Las TI deben repensar sus procesos y los CIO deben convertirse en un CIO “de negocios” en lugar de un gerente de centro de costos.

  1. Los modelos de compra están cambiando

El mercado está alejándose de la compra de activos tecnológicos. Las empresas se encuentran repensando el modelo para sus compras de TI tanto en infraestructura como en servicios. Esto se ve influenciado por las ventajas de reducir los costos, aumentar la agilidad y mejorar el tiempo de valor de la nube y los servicios alojados.

  1. Acelerar la transición a la nube

Según Ed Anderson, vicepresidente de investigación de Gartner, los responsables de TI desarrollarán habilidades en la supervisión de la nube, el rendimiento de la carga de trabajo en la nube y la gestión de la seguridad. La administración de la capacidad en la nube ya no es una cuestión de “si” sino “cuándo”. Los portales de virtualización, convergencia, almacenamiento de objetos y gestión de nubes facilitarán el movimiento hacia la nube.

 Tendencias tecnológicas

  1. TI bimodal

Las empresas que no nacen en la nube tienen sistemas de registro que deben mantener y modernizar mientras se transforman en nuevos sistemas de innovación. Bimodal IT se refiere a tener dos modos de TI, cada uno diseñado para desarrollar y entregar servicios de información y tecnología intensiva a su manera:

  • Modo 1: Tradicional – enfatiza la seguridad y la precisión.
  • Modo 2: No lineal – enfatiza la agilidad y la velocidad.

Las TI deben ser capaces de gestionar ambos modos e implementar sistemas que tienden un puente entre estos dos modos. Mientras que algunos pueden considerar esto como una tendencia de centro de datos, esto requiere tecnología para integrar ambos mundos.

  1. Flash primero

El argumento del precio contra el almacenamiento flash se elimina, ya no se tiene que definir con un usuario si sus datos son Nivel 1 o 2. Como resultado, el analista está proyectando que los ingresos para el almacenamiento flash será mayor que para los discos duros en 2017, así, la transición a Flash se acelera.

  1. Un centro de datos centralizado

Los datos están explotando y son cada vez más valiosos a medida que encontramos formas de correlacionar los datos de diferentes fuentes para obtener más información o reutilizamos para usos diferentes. Los datos son nuestras joyas de la corona, y las IT estarán creando un centro de datos centralizado para una mejor administración, protección, gobernabilidad y búsqueda de sus datos. Este concentrado centralizado de datos necesitará ser un almacén de objetos que pueda escalar más allá de las limitaciones de los sistemas de archivos, ingerir datos de diferentes fuentes y proporcionar búsqueda y gobernabilidad a través de nubes públicas, privadas y dispositivos móviles.

  1. Análisis en tiempo real, Hadoop, visualización y análisis predictivo

La analítica predictiva es cada vez más frecuente a medida que las empresas tratan de anticipar los eventos que afectan a su negocio. Esta tendencia verá el uso ampliado de bases de datos en memoria y las plataformas de análisis de flujo continuo para proporcionar análisis en tiempo real de tendencias en desarrollo. La analítica en tiempo real se conectará con los analíticos de Hadoop para un análisis más profundo y los resultados se almacenarán en una tienda de objetos con la posibilidad de análisis futuros. Herramientas analíticas como Pentaho combinarán datos estructurados y no estructurados de diferentes fuentes para proporcionar una vista 360 para el análisis.

Tendencias IT / OT / IoT

  1. TI inteligente: la integración de TI y OT

Los datos de la tecnología operativa (OT) pueden ser datos de sensores o registros que se unen a los datos de TI para proporcionar una comprensión más completa de un evento o proceso. Los minoristas ya están a la vanguardia combinando los datos operativos de los sensores en las tiendas y los medios sociales para optimizar los sistemas de compras y de cadena de suministro. Más empresas estarán buscando herramientas de integración de datos como Pentaho para integrar sus datos de TI y OT.

  1. Creación de conciencia sobre el IoT en el Data Center

El Internet de las cosas (IoT) es la conexión en red de dispositivos físicos, vehículos, edificios y otros elementos, integrados con electrónica, software, sensores y conectividad de red que permiten a estos objetos recopilar, intercambiar e incluso procesar datos a la vanguardia. La conexión en red de las cosas afectará a todos los aspectos de nuestras vidas. Esto va más allá de la integración de TI y OT, y salvo algunas aplicaciones como la seguridad pública, no será una importante tendencia de TI en 2017. Sin embargo, las decisiones que tomamos en TI en 2017 debe hacerse con un ojo al IoT. La integración de TI y OT con análisis es el primer paso. Para abordar el IoT se requiere más que la integración vertical de los silos de la industria, sino una plataforma horizontal de componentes reutilizables para que la parte delantera esté integrada con los sistemas empresariales backend.

Hu Yoshida, CTO de Hitachi Data Systems

Leer más...



El 2017 es el año donde destacará el Big Data

Categorías relacionadas:
BI y analítica, Big Data, Del día, Destacado, Infraestructura, Lo más reciente, Lo más reciente, Mainframe, Movilidad, Seguridad, Tendencias, Uncategorized

Una de las grandes esperanzas para las empresas en este nuevo año es que mejoren sus compromisos con el Big Data y comiencen a poner datos útiles y procesables en manos de los negocios en el momento en que los necesitan.

Como el costo del almacenamiento continúa cayendo y la disponibilidad de soluciones de análisis SaaS (software as a service) se están multiplicando, la oportunidad de implementar estas técnicas y de formar a los empleados nunca ha sido más fácil y barata. Estas son algunas de las tendencias que el 2017 nos va a dejar en materia de Big Data, analytics y Business Intelligence (BI).

Abrazando machine learning

La consultora Ovum cree firmemente que el machine learning será el elemento disruptor “más grande” para en el análisis de datos en este nuevo año.  El experto en esta materia, Tony Baer, asegura que “el aprendizaje automático seguirá creciendo, pero en la mayoría de los casos se integrará en aplicaciones y servicios en lugar de desarrollarse a medida de los usuarios, ya que pocas organizaciones fuera del Global 2000 cuentan con científicos de datos entre su personal”.

Los vendedores han comenzado a comercializar paquetes que hacen que sea más fácil que nunca que las empresas apliquen estas tecnologías en sus conjuntos de datos, por lo que es de esperar que se continúe aprovechando la analítica predictiva, los motores de recomendación la personalización del cliente y la detección de fraudes y amenazas.

Más allá de Hadoop

La solución de almacenamiento de datos de código abierto Apache Hadoop ha centrado la conversación de la industria de BI en los últimos años. Ahora, las alternativas más viables están empezando a llegar a través de Apache Spark.

El motor de procesamiento de datos in-memory ya había sido promocionado hace años, pero, tal y como señala Baer, la capacidad de implementar Spark en la nube está impulsando la adopción. “La disponibilidad de Spark basado en cloud junto con el aprendizaje automático y los servicios de IoT ofrecerán alternativas para las compañías”.

Aunque similares, Hadoop y Spark son productos diferentes. “El debate se agrava cuando se elimina la sobrecarga de un propósito general de procesamiento de datos y el motor de almacenamiento. En este caso Spark debería ser más eficiente. Sin embargo, el inconveniente reside en que los clústeres independientes de Spark carecen de la seguridad o las características de administración de datos de Hadoop”.

Expertos en visualización de datos creen que los que han adoptado Hadoop recientemente pueden aprovechar las herramientas de preparación de datos de autoservicio para 2017.

Data Lakes utilizables

En los últimos años ha vencido la tendencia a tener una única fuente de datos en la empresa en lugar de varias, lo que facilita compartir información sobre la organización. Se espera que  las empresas que implementan Data Lakes vuelvan a estar gobernadas de manera adecuada.

Ramon Chen, gerente de gestión de datos de Reltio ha indicado que muchas empresas que tomaron el Data Lake desde sus inicios gastaron una cantidad significativa de dinero, no solo con la compra bajo la promesa de bajo costo de proceso y almacenamiento, sino de una gran cantidad de servicios. Con el fin de agrupar y poner a disposición agrupaciones significativas de grandes datos para ser correlacionados y descubiertos para una mejor comprensión”.

La empresa necesita aún científicos de datos

La demanda de perfiles específicos de científicos de datos podría ir satisfaciéndose poco a poco a medida que entran más graduados al mercado de trabajo. Según el informe 2016 Mind The Gap de Hired, las ofertas de salarios de científicos de datos aumentaron en un 29% en los últimos 18 meses. El informe también mostró un aumento del 234% en las solicitudes de entrevistas para ingenieros de datos en el mismo período.

Más Business Intelligence de autoservicio

Aaron Auld, CEO y especialista en analítica de EXASOL, cree que la BI de autoservicio, donde los usuarios de negocios tienen acceso directo a la analítica, seguirá siendo una tendencia en la empresa en 2017.

Las herramientas de autoservicio están ganando terreno tanto en la empresa como en las startups de reciente creación. A medida que el análisis de datos se integra más en el núcleo del negocio, habrá un cambio hacia la implementación de análisis de datos con bases de datos, herramientas de visualización como Tableau y herramientas de preparación de datos como Alteryx.

Análisis en streaming

La analítica en tiempo real es la práctica de monitorear los datos a medida que se transmiten a la organización, en lugar del análisis tradicional. Esto es particularmente clave cuando se analiza la salud de la infraestructura, por lo que el análisis en streaming debe ser una fuerza tractora en 2017.

Redacción

Leer más...



Seguridad y gobernanza de datos, los mayores retos del Big Data

Categorías relacionadas:
Administración de proyectos, BI y analítica, BI y analítica, Big data, Big Data, Big data, Cómo hacerlo, Del día, Destacado, Estrategia CIO, Lo más reciente, Lo más reciente, Reportes e investigaciones, Tendencias

En los últimos años, los cambios en la tecnología han modificado la arquitectura del centro de datos, por lo que las empresas han empezado a modernizar su entorno. Uno de los cambios más realizados es el aumento de software de código abierto.

Teniendo en cuenta estas premisas, Intel y Cloudera se han asociado para investigar el estado de la implementación de plataformas cloud en las organizaciones, los últimos retos asociados a la implementación de estos sistemas, así como la transformación del centro de datos.

Ambas empresas han trabajado conjuntamente en el Unisphere Research, una división de Information Today. Inc., a raíz de la encuesta a los responsables de IT involucrados en las operaciones de centro de datos.

Las conclusiones destacadas por del estudio Transforming the Data Center apuntan hacia aspectos relacionados con la seguridad y la gobernanza de datos como los principales desafíos ante el crecimiento del volumen de información.

Hadoop como alternativa

En sus inicios, muchos usuarios utilizaban Hadoop como fuente de información  relacionada con el acceso a la web o los medios sociales. Los primeros esfuerzos fueron fáciles porque no necesitaban demasiado en torno a la gobernanza y la seguridad. Sin embargo, las capacidades de Hadoop han crecido con los años y las organizaciones han comenzado a construir arquitecturas a gran escala para albergar todos sus datos en Hadoop.

“Es entonces cuando la gobernanza y la seguridad de los datos se han convertido en una necesidad que se ha hecho más preocupante cuando se empezaron a mezclar datos seguros con los no seguros”, señala el informe, al tiempo que puntualiza que, con el fin de convertir un centro de datos de la empresa en una realidad, hay que garantizar que se ha mejorado la visibilidad de lo que la gente está haciendo con los datos.

Desde la perspectiva de ambas compañías, Apache Hadoop supone una fuerte divergencia con respecto a las arquitecturas de bases de datos tradicionales, en lo que a su escalabilidad horizontal y el uso de hardware básico se refiere. La implementación de Hadoop requiere revisar los sistemas que se ejecutan hoy y una estrategia sobre cómo Hadoop puede completar, extender o reemplazar las soluciones tradicionales.

Los silos, el mayor obstáculo

Por lo anterior, no sorprende que el 60% de los encuestados afirme que la seguridad y la gobernanza son las principales preocupaciones ante el crecimiento del Big Data.

Cloudera se ha centrado en hacer frente a los problemas que encara la seguridad empresarial, una cuestión que, según afirma, “va más allá del cifrado de datos y el control de los accesos.”

Asimismo, el informe destaca que el acceso a los datos agrupados en silos es el elemento más difícil para la creación de un banco de datos para el análisis.

Encapsular los datos y limitar el acceso a ellos es bueno para la seguridad; no hay otra forma segura de mantener los datos a salvo sin crear una separación física real. Pero esto tiene sus inconvenientes. Limitar el acceso a los datos significa limitar el conocimiento.

¿Cómo esperamos que nuestros analistas y científicos de datos construyan los mejores modelos de datos limitados? No sólo es complejo para los analistas, también tiene complejidad operacional y un bajo ROI debido a la gestión de múltiples sistemas. Por ello, no sorprende que el 38% de los gestores de datos profesionales detecten los atascos en los silos de datos como un problema generalizado.  

De la descripción a la predicción

Otra conclusión que ofrece el estudio Transforming the Data Center tiene que ver con el hecho de que los usuarios quieren pasar de la descripción a la predicción en el análisis de datos. ¿Cómo puede una empresa moderna que necesita cambiar en cuestión de días o minutos en base  los datos ser obligado a consultar los datos de la semana pasada?

Simplemente no es lo suficientemente potente como para hacer de los datos un activo estratégico. El Big Data ha tenido un papel determinante en el avance del estado de los nuevos modelos de análisis y visión de futuro. Este hecho viene dado porque muchas organizaciones ya están usando Hadoop para tener capacidades analíticas más predictivas.

Mientras que el 36% de las compañías ya han incorporado análisis avanzados, el 60% todavía está operando con análisis predictivos.

La alineación plena con los objetivos de negocio es el factor clave para avanzar. Desde la perspectiva de Cloudera e Intel en su estudio, hay que entender la tecnología como un aspecto fundamental para el cambio integral en la arquitectura de la información, pero no es el único.

Hoy es posible asociarse con un proveedor, desarrollar un sistema integral o contratar las personas adecuadas para asegurar el éxito con la tecnología. Sin embargo, un reto mucho más complejo está cambiando la cultura de la organización.

Gartner predijo que en 2017 sólo el 50% de las organizaciones habrán hecho los ajustes culturales necesarios para obtener grandes volúmenes de datos.

Esta es la razón por la que el mismo porcentaje de encuestados en el estudio indica la alineación con la estrategia de negocio específico como un factor determinante para considerar la modernización. 

-IDG.es

Leer más...