Dateningenieure und Datenanalysten können Daten für Analytics-Zwecke mithilfe von Informatica Enterprise Data Preparation auf eine einzigartige, kollaborative Weise finden, vorbereiten und verwalten, damit Datenanalysten und Business User schneller Entscheidungen treffen können.
Wandeln Sie Rohdaten systematisch in verwertbare Datensätze für verschiedene Anwendungsbereiche um. Universelle Metadatenservices katalogisieren die mit Daten verknüpften Metadaten sowohl innerhalb als auch außerhalb von Hadoop und erfassen Crowdsourcing-Tags, die einen Unternehmenskontext liefern. Dank intelligenter Empfehlungen haben Business-Analysten Zugriff auf fast all Ihre Daten.
Mit Enterprise Data Preparation werden separate Datenansichten im gesamten Unternehmen beseitigt, so dass Business-Analysten eine vollständige Übersicht über alle Daten haben, um verwertbare Erkenntnisse zu gewinnen. Durch die Katalogisierung von Daten erhalten Analysten Zugriff auf sämtliche Datenbestände des Unternehmens, während die IT Data Tracking, Governance und Datenschutz sicherstellen kann.
Mithilfe unseres intuitiven, Excel-ähnlichen Tools zur Self-Service-Datenvorbereitung können Datenanalysten und Dateningenieure Daten schnell kombinieren, filtern, zusammenfügen, bereinigen und schützen, um schnell und sicher zuverlässige Erkenntnisse zu gewinnen. Mit den Funktionen für Tagging und Freigabe von Daten können Datensätze durch Metadaten angereichert werden, so dass die Wiederverwendung vereinfacht wird und die betriebliche Effizienz steigt.
Effizienz und Wiederverwendung sind für die Datenvorbereitung äußerst wichtig. Mit Enterprise Data Preparation werden Schritte zur Datenvorbereitung gespeichert und innerhalb automatisierter Prozesse abgespielt. Fördern Sie die unternehmensweite Zusammenarbeit durch Projekt-Workspaces und die Verwaltung von Veröffentlichungen.
Benutzerfreundliche Oberfläche, die es Business-Analysten ermöglicht, Daten auch ohne die Hilfe der IT zusammenzuführen.
Self-Service-Verwaltung von Datenveröffentlichungen, wobei Projekte in Workspaces unterteilt werden.
Mit vorgefertigten Umwandlungsfunktionen für die Datenintegration zur nativen Verarbeitung von Daten jeden Typs und Umfangs.
Datenexploration dank einer übersichtlichen, visuellen Darstellung der Daten.
Verwendung von Maschinenintelligenz zur Lokalisierung schwer auffindbarer Datenbestände und Identifizierung sensibler Daten für Compliance.
Ermöglicht Analysten die Zusammenarbeit während des Datenpflegeprozesses durch die einfache Kennzeichnung und Weitergabe von Datenbeständen.
Ermöglicht die bidirektionale Einspeisung und Veröffentlichung von Daten zwischen Hadoop und Apache Sqoop-Quellen.
Speichert Schritte zur Datenvorbereitung als wiederverwendbare Data Pipeline Mappings für eine schnelle Ausführung mittels Blaze oder anderen Engines.
Vorgefertigte Transformationen von Geschäftsregeln für die Datenqualität, um Konsistenz und Genauigkeit sicherzustellen.
Nutzt die zentrale Sicherheitsadministration von Apache Ranger und die rollenbasierte Zugangskontrolle von Apache Sentry.