Maak de belofte van big data waar, verlaag de kosten van datamanagement en beperk risico's tot een minimum

Informatica PowerCenter Big Data Edition is schaalbare, krachtige enterprisesoftware voor data-integratie die werkt met opkomende technologieën, zoals Hadoop, en traditionele datamanagementinfrastructuren. Met dit product beschikt u over een veilige route naar big data en kan uw IT-organisatie nieuwe datatypen en -bronnen integreren en analyseren. Met deze editie verdrievoudigen ontwikkelaars hun productiviteit door over te stappen van handmatige codering op een visuele ontwikkelomgeving zonder code. Data-onderzoekers en -analisten hoeven zich niet meer te richten op data-integratie, maar kunnen zich concentreren op het verkrijgen van inzichten uit big data. Dankzij deze big data-inzichten kan uw bedrijf innovatieve producten en services sneller op de markt brengen en de business operations verbeteren. Deze Informatica PowerCenter Big Data Editie biedt een bewezen innovatieroute, waarbij de kosten van datamanagement worden teruggedrongen en risico's tot een minimum worden beperkt.

  • Goedkoper management van big data en verwerking van grotere, complexere datavolumes
  • Performance- en kostenvoordelen door Hadoop te gebruiken voor steeds meer dataprojecten
  • Minimaal risico door investering in bewezen data-integratiesoftware die de complexiteit van opkomende technologieën verbergt

Productiviteit zonder coderen

  • Visuele Informatica-ontwikkelomgeving in plaats van handmatige codering in Hadoop
  • Hergebruik en samenwerking mogelijk dankzij een gemeenschappelijke geïntegreerde ontwikkelomgeving (IDE)

Universele datatoegang

  • Toegang tot big data voor transacties, zoals RDBMS, OLTP, OLAP, ERP, CRM, mainframe, cloud en andere databronnen
  • Toegang tot big data voor interactie, zoals data uit sociale media, logbestanden, machinesensors, websites, blogs, documenten, e-mails en andere ongestructureerde of multigestructureerde data

Snelle opname en extractie van data

  • Ontsluiten, laden, repliceren, transformeren en extraheren van big data van bron- naar doelsystemen of direct naar Hadoop of uw datawarehouse
  • Snelle opname en extractie van data met krachtige connectiviteit via API's naar bron- en doelsystemen met parallelle verwerking

Onbeperkte schaalbaarheid

  • Verwerking van alle typen big data op elke schaal, van terabytes tot petabytes
  • Geen noodzaak meer om speciale code te ontwikkelen op gedistribueerde computerplatforms zoals Hadoop

Geoptimaliseerde performance voor de laagste kosten

  • Verwerking van big data wordt uitgevoerd op de krachtigste, meest kosteneffectieve dataverwerkingsplatforms (op basis van datavolumes, datatype, latentievereisten en beschikbare hardware)
  • Maximaal profijt van huidige investering en capaciteit ongeacht of u dataverwerking uitvoert op SMP-machines, traditionele grid clusters, gedistribueerde computerplatforms zoals Hadoop of datawarehousehardware

ETL op Hadoop

  • Uitgebreide library van vooraf gedefinieerde transformatiemogelijkkheden op Hadoop, zoals datatypeconversie en tekenreeksmanipulatie, krachtige, door cache gefaciliteerde lookups, joiners, sorters, routers en aggregaties
  • Met een grafische ontwikkelomgeving zonder code waarop big data-stromen op Hadoop snel kunnen worden ontwikkeld

Profiling op Hadoop

  • Data profiling op Hadoop door middel van het Informatica-ontwikkelaarstool en een browsertool voor analisten
  • Ontwikkelaars, analisten en data-onderzoekers krijgen inzicht in de data, kunnen problemen met de datakwaliteit eerder opsporen, samenwerken aan specificaties voor datastromen en mapping-, transformatie- en rules-logica valideren

Eenmaal ontworpen, overal implementeren

  • ETL-ontwikkelaars kunnen zich concentreren op data- and transformatielogica zonder zich af te vragen of het ETL-proces wordt uitgevoerd op Hadoop of op traditionele dataverwerkingsplatforms.
  • Ontwikkelaars hoeven slechts een ontwerp te maken. Ze hebben daarbij geen specialistische kennis van Hadoop-concepten en -talen nodig. Ze kunnen gemakkelijk datastromen implementeren op Hadoop of op traditionele systemen.

Complexe data parsing op Hadoop

  • Gemakkelijke ontsluiting en parsing van complexe, multigestructureerde, ongestructureerde en branchespecifieke data, zoals blogs, JSON, XML en machinedata
  • Vooraf gedefinieerde parsers voor marktdata en branchespecifieke data, zoals FIX, SWIFT, ACORD, HL7, HIPAA en EDI ook verkrijgbaar onder een afzonderlijke licentie

Entiteitextractie en dataclassificatie op Hadoop

  • Gemakkelijke extractie en classificatie van entiteiten voor uw klanten en producten uit ongestructureerde data zoals e-mails, sociale media en documenten
  • U kunt masterdata verrijken met inzichten in klantgedrag of productinformatie, zoals de prijsstelling van concurrenten

Gemengde workflows

  • Uw IT-team kan gemakkelijk alle onderling relateerde processen en workflows van big data coördineren, plannen, bewaken en managen op zowel uw traditionele omgeving als de Hadoop-omgeving
  • Toegang tot individuele Hadoop-taken via drill-down

Hoge beschikbaarheid

  • Hoge beschikbaarheid (24x7) met naadloze failover, flexibel herstel en robuuste verbinding
  • Nieuwe producten en services die zijn ontwikkeld met big data-inzichten zijn schaalbaar en 24x7 beschikbaar voor bedrijfskritieke processen

Services en training

Informatica biedt een compleet pakket services en trainingen waarmee bedrijven optimaal rendement kunnen halen uit het Informatica-platform.

Meer informatie over services

PowerCenter "Buzz"

How to find which mapping populates an attribute?
I have over 200 mappings in a repository. I need to find whi

PowerCenter-modules

Coupa Connector
op Informatica Cloud

Hortonworks Hadoop Connector
op Informatica Cloud

Alle PowerCenter-modules