Door alle opwinding over big data bent u misschien snel geneigd te geloven dat Hadoop een oplossing biedt voor al uw problemen op gebied van dataverwerking. Maar ondanks de hype wordt Hadoop waarschijnlijk gewoon één van de vele datasilo's. Het is zelfs zeer goed mogelijk dat Hadoop over een paar jaar alweer is verouderd.

Hadoop is een krachtige technologie, maar het is slechts één van de vele big data-technologieën. Hadoop is ontwikkeld voor specifieke soorten data en werklasten. Zo is het bijvoorbeeld een zeer kosteneffectieve technologie voor staging van grote hoeveelheden onbewerkte data, zowel gestructureerd als ongestructureerd. Deze kunnen vervolgens worden verfijnd en voorbereid voor analyses. Hadoop kan u ook helpen kostbare upgrades van bestaande bedrijfseigen databases en datawarehousehardware te voorkomen, als de aanwezig capaciteit te snel in beslag wordt genomen door onbewerkte, ongebruikte data en ETL-processen (Extraheren, Transformeren en Laden). 

Tenzij Hadoop wordt geïntegreerd met de rest van de infrastructuur voor data management, wordt het echter al snel de zoveelste datasilo die de IT-omgeving van uw bedrijf alleen maar ingewikkelder maakt. Eén aspect van deze integratie is de mogelijkheid Hadoop te koppelen met andere dataverwerkings- en analysesystemen. Zo kunnen bijvoorbeeld grote hoeveelheden onbewerkte data in Hadoop worden voorbewerkt. Deze kunnen dan op een kosteneffectieve manier aan Hadoop worden aangeboden. Maar misschien stromen deze voorbewerkte data vervolgens weer door naar een ander systeem buiten Hadoop dat geschikter is voor bepaalde analyses die zijn vereist voor het bedrijfsproces.

Het tweede aspect van de integratie, namelijk de integratie van vaardigheden, is nog veel belangrijker. En ook ingewikkelder. Bij de meeste prille Hadoop-implementaties namen organisaties hun toevlucht tot tijdrovende handmatige codering voor dataverwerking, ondanks de hoge kosten en de onderhoudsproblemen onderaan de streep. Ze deden dat omdat er geen Hadoop-tools beschikbaar waren die gebruikmaakten van de bestaande vaardigheden. In plaats daarvan waren voor Hadoop-projecten specialistische vaardigheden nodig in programmeertalen als MapReduce, Hive en Pig.

Informatica optimaliseert de dataverwerking tussen al uw systemen en platformen, zowel Hadoop als niet-Hadoop, dankzij een ontwikkelomgeving zonder codering die is gebaseerd op de Virtual Data Machine (VDM) Vibe van Informatica. Vibe biedt integratieontwikkelaars de mogelijkheid één keer een grafisch ontwerp te maken van data integratiemappings en deze vervolgens overal, al dan niet virtueel, te hergebruiken op traditionele platformen voor dataverplaatsing of op Hadoop. Met Vibe kunnen ontwikkelaars hun productiviteit verhogen met de factor vijf, zonder dat ze eerst moeten leren programmeren in Hadoop. Dankzij Vibe is iedere Informatica-ontwikkelaar nu ook een Hadoop-ontwikkelaar.

Met Vibe heeft u een belangrijke troef in handen voor op de langere termijn. Het big data-ecosysteem ontwikkelt zich razendsnel. Bijna wekelijks worden er nieuwe distributies, nieuwe programmeertalen en nieuwe technologieën geïntroduceerd. Op geen enkele wijze valt te voorspellen hoe de technologie zich binnen enkele maanden zal ontwikkelen, laat staan in een paar jaar. De functionaliteit van Vibe is gebaseerd op het principe "Map Once, Deploy Anywhere". U wordt dus afgeschermd van de onophoudelijke veranderingen die schuilgaan achter Hadoop en andere big data-technologieën. Steeds als u een nieuwe technologie wilt implementeren, stelt Vibe u in staat uw logica te hergebruiken zonder dat deze opnieuw hoeft te worden geprogrammeerd.

Informatica PowerCenter Big Data Edition van Informatica Vibe biedt alle functionaliteit die u nodig heeft om met succes data integraties voor Hadoop te bouwen en te implementeren. En wel direct. En met Vibe kunt u erop vertrouwen dat u bent voorbereid op de onvoorspelbare toekomst van big data.