Vista l'esaltazione attorno ai Big Data, è semplice pensare che Hadoop possa risolvere tutti i problemi relativi ai dati. Nonostante tutta la pubblicità che ha ricevuto, Hadoop probabilmente diventerà solo un altro silo di dati. È importante considerare Hadoop nel contesto di una strategia Big Data olistica.

Hadoop è una tecnologia potente, ma è solo uno dei componenti del panorama Big Data. Hadoop è progettato per tipi di dati e carichi di lavoro specifici. Ad esempio, si tratta di una tecnologia molto economica per lo staging di grandi quantità di dati grezzi, sia strutturati che non, che possono poi essere raffinati e preparati per gli analisti. Hadoop aiuta anche a evitare costosi upgrade di database proprietari e dispositivi di data warehouse esistenti, quando la capacità viene consumata troppo rapidamente con dati grezzi inutilizzati e con l'elaborazione extract-load-transform. 

Tuttavia, nonostante Hadoop sia integrato con il resto dell'infrastruttura di gestione dati, rischia di diventare rapidamente un'altra isola di dati che aggiunge complessità all'ambiente IT aziendale. Un aspetto di tale integrazione è la capacità di collegare Hadoop ad altri sistemi di elaborazione dati e analytics. Ad esempio, la pre-elaborazione di grandi volumi di dati grezzi si verifica in Hadoop, dove può essere implementata in modo economico. Tuttavia, i dati risultanti potrebbero spostarsi su un sistema diverso all'esterno di Hadoop, più adatto a un particolare tipo di analytics richiesto dal business.

Il secondo aspetto dell'integrazione (integrazione delle competenze) è ancora più importante, oltre che più difficile. Nelle prime implementazioni di Hadoop, le aziende sono ricorse a scrivere codice a mano per l'elaborazione dei dati che richiedeva molto tempo, nonostante costi elevati e problematiche legate alla manutenzione lungo il percorso, poiché in quel momento non esistevano strumenti Hadoop che sfruttavano le competenze esistenti. I progetti Hadoop invece richiedevano competenze di specialisti di programmazione, in linguaggi come ad esempio MapReduce, Hive e Pig.

Informatica ottimizza l'elaborazione dei dati in tutti i sistemi e su tutte le piattaforme, sia Hadoop, sia non-Hadoop, con un ambiente di sviluppo senza codice integrato su VDM (Virtual Data Machine) di Informatica. Vibe permette agli sviluppatori di data integration di progettare graficamente le mappature di data integration una volta, per poi implementarle ovunque, sia virtualmente che non, sulle piattaforme di trasferimento dati tradizionali o su Hadoop. Vibe permette agli sviluppatori di essere cinque volte più produttivi, senza nemmeno dover imparare a programmare in Hadoop. Con Vibe, ogni sviluppatore Informatica ora è anche uno sviluppatore Hadoop.

Vibe offre un altro vantaggio chiave a lungo termine: l'ecosistema dei Big Data si sta evolvendo in modo estremamente rapido con nuove distribuzioni, nuovi linguaggi e nuove tecnologie quasi ogni settimana. Non esiste modo per prevedere a che punto sarà la tecnologia tra qualche mese, ancor meno tra qualche anno. Grazie alle capacità “Map Once. Deploy Anywhere.", Vibe isola le aziende rispetto dai costanti cambiamenti alla base di Hadoop e di altre tecnologie Big Data. Ogni volta che si decide di implementare una nuova tecnologia, Vibe permette di riutilizzare la logica senza riscrivere il codice.

Informatica PowerCenter Big Data Edition, di Informatica Vibe, mette a disposizione tutte le funzionalità necessarie per creare e implementare correttamente la data integration su Hadoop. Subito. Con Vibe, si ha inoltre la certezza di essere pronti a qualsiasi cosa porti il futuro dei Big Data.