Con todo el interés que ha suscitado el Big Data, es fácil creer que Hadoop puede solucionar todos sus problemas relacionados con los datos. No obstante, a pesar de todo el ruido, Hadoop es probable que se convierta simplemente en otro silo para datos. Es incluso posible que, en unos cuantos años, Hadoop se haya quedado obsoleto.

Hadoop, pese a ser una potente tecnología, es solo un componente más del panorama de la tecnología Big Data. Hadoop se ha diseñado para tipos de datos y cargas de trabajo específicos. Por ejemplo, es una tecnología muy rentable para dividir grandes cantidades de datos sin procesar, tanto estructurados como no estructurados, que a continuación se pueden depurar y preparar para su análisis. Hadoop también puede contribuir a evitar las costosas actualizaciones de las bases de datos propias y los dispositivos de data warehouse ya existentes, cuando su capacidad se esté agotando demasiado deprisa con datos sin procesar y sin utilizar, y mediante procesos de extracción-carga-transformación. 

No obstante, a no ser que Hadoop se integre con el resto de la infraestructura de gestión de datos, rápidamente se convierte en una isla más de datos que añade complejidad al entorno IT de su empresa. Un aspecto de esta integración es la capacidad de tender puentes entre Hadoop y otros sistemas analíticos y de procesamiento de datos. Por ejemplo, es posible realizar el preproceso de grandes volúmenes de datos en Hadoop, para lo que se puede implementar de forma rentable. Pero los datos resultantes pueden fluir hacia un sistema distinto, fuera de Hadoop, que sea más adecuado para el tipo de análisis concreto que necesite la empresa.

El segundo aspecto de la integración —la integración de competencias— es incluso más importante, pero también más difícil. En las implantaciones más antiguas de Hadoop, las organizaciones recurrieron a la engorrosa programación manual para el procesamiento de datos, a pesar de su alto coste y de las complicaciones que suponía el mantenimiento de los datos de salida. Lo hicieron porque no había herramientas Hadoop disponibles que utilizaran los conjuntos de competencias existentes. Por el contrario, los proyectos en Hadoop precisaban de competencias especializadas para la programación en lenguajes como MapReduce, Hive y Pig.

Informatica optimiza el procesamiento de datos en todos sus sistemas y plataformas, sean o no con Hadoop, con un entorno de desarrollo sin código creado en la máquina virtual de datos (VDM) Vibe de Informatica. Vibe hace posible que los desarrolladores de integración de datos diseñen gráficamente una sola vez los mapeados de integración de datos y que, a continuación, desplieguen esos mapeados en cualquier lugar, ya sea virtualmente o no, en plataformas tradicionales para el movimiento de datos o en Hadoop. Vibe hace que los desarrolladores sean cinco veces más productivos sin necesidad de aprender a programar en Hadoop. Con Vibe, todos los desarrolladores de Informatica son ahora desarrolladores en Hadoop.

Vibe proporciona otra ventaja clave a largo plazo. El ecosistema del Big Data está evolucionando extremadamente deprisa, con nuevas distribuciones, nuevos lenguajes y nuevas tecnologías que surgen casi semanalmente. No hay forma de predecir dónde estará la tecnología dentro de unos meses, ni mucho menos, dentro de unos años. Con sus prestaciones "Map Once. Deploy Anywhere.", Vibe aísla de los constantes cambios que subyacen a Hadoop y otras tecnologías del Big Data. Independientemente de si elige implantar una nueva tecnología o no, Vibe le proporcionará la capacidad para reutilizar su lógica sin necesidad de recodificar.

Informatica PowerCenter Big Data Edition, basada en Informatica Vibe, proporciona todas las capacidades que necesita para crear e implantar satisfactoriamente la integración de datos en Hadoop. Ahora mismo. Y con Vibe, puede confiar en que estará preparado para lo que el futuro del Big Data pueda traerle.