Compte tenu de l'effervescence qui entoure les Big Data, on peut facilement croire qu'Hadoop est capable de résoudre tous nos problèmes liés aux données. Malgré tout le battage médiatique, Hadoop devrait selon toute vraisemblance devenir un autre silo de données. Il est même possible que, dans quelques années, Hadoop devienne obsolète.

Hadoop est une technologie puissante, mais il ne s'agit que d'un composant de l'environnement technologique des Big Data. La technologie Hadoop est conçue pour des types de données et des charges de travail spécifiques. Il s'agit par exemple d'une technologie très économique pour organiser de grandes quantités de données brutes, à la fois structurées et non structurées, qu'il est ensuite possible d'affiner et de préparer à des fins d'analyse. Hadoop vous évite également des mises à niveau coûteuses des bases de données propriétaires et des appliances de data warehouse existantes lorsque leur capacité s'épuise trop vite dans le cadre de l'extraction/transformation/chargement de données brutes inexploitées. 

Pourtant, à moins d'intégrer Hadoop au reste de l'infrastructure de gestion de données, cette technologie deviendra rapidement un autre îlot de données renforçant la complexité de l'environnement informatique de votre entreprise. L'un des aspects de cette intégration est qu'il est possible d'associer Hadoop à d'autres systèmes de traitement et d'analyse des données. Par exemple, il est possible de prétraiter de grands volumes de données brutes avec Hadoop, lorsque que l'implémentation de la technologie peut être réalisée de manière rentable. Mais les données en résultant peuvent ensuite être acheminées vers un autre système à l'extérieur d'Hadoop mieux adapté à un type spécifique d'analyse requis par l'entreprise.

L'intégration des compétences constitue un aspect encore plus important. Il est aussi plus complexe. Lors des premiers déploiements d'Hadoop, les entreprises ont eu recours au codage manuel fastidieux pour le traitement des données, malgré son coût élevé et les complications au niveau de la maintenance à assurer par la suite. Elles ont procédé ainsi car il n'existait pas d'outils Hadoop exploitant les ensembles de compétences existants. Les projets Hadoop exigeaient au contraire des compétences expertes en programmation de langages tels que MapReduce, Hive et Pig.

Informatica optimise le traitement des données sur tous vos systèmes et plates-formes, qu'ils exploitent ou non la technologie Hadoop, grâce à un environnement de développement sans code basé sur la machine virtuelle de données (VDM) Vibe d'Informatica. Vibe permet aux développeurs d’intégrer des données et de concevoir graphiquement une seule fois les mappings d'intégration de données, puis de les déployer de manière universelle, virtuellement ou non, sur les plates-formes de données en production traditionnelles ou sur Hadoop. Vibe multiplie par cinq la productivité des développeurs, qui n'ont pas besoin d'apprendre à programmer dans Hadoop. Grâce à la VDM Vibe, tout développeur Informatica est désormais un développeur Hadoop.

Vibe offre un autre avantage majeur à long terme. L'écosystème des Big Data évolue extrêmement vite, avec de nouvelles distributions, de nouveaux langages et de nouvelles technologies émergeant pratiquement chaque semaine. Il n'y a aucun moyen de savoir où en sera la technologie dans quelques mois, et encore moins dans quelques années. Grâce à ses capacités de mapping unique pour un déploiement universel, Vibe vous protège de l'évolution constante d'Hadoop et des autres technologies Big Data. Dès que vous décidez de déployer une nouvelle technologie, Vibe vous permet de réutiliser votre logique sans recodage.

La solution Informatica PowerCenter Big Data Edition, optimisée par Informatica Vibe, offre toutes les capacités dont vous avez besoin pour créer et déployer avec succès l'intégration de données sur Hadoop. Dès à présent. Et grâce à Vibe, vous êtes sûr d'être prêt à faire face à toutes les évolutions futures des Big Data.