将来のデータのニーズを予想することは不可能です。今できるのは、せいぜい現時点の誤りによる費用を回避することくらいです。
現在、組織は、非常に多種多様なデータソースから、同様に多種多様なインタフェースを通じて取得したデータと格闘しています。これらのデータの意味を理解するために、IT部門はデータを抽出し、利用可能な形式に変換し、適切なデータウェアハウジングにロードする必要があります。ほとんどの場合、多数のアプリケーションからのデータは、統合されて単一のビジネスプロセスへ提供されます。
しかし、これは簡単な作業ではありません。しかもこの作業をより複雑化しているのは、1ヵ所に保存されているデータを変更すると、他の多くの場所にあるデータにも影響を及ぼすという点です。
誤ったデータの代償を払う
多くの組織において、統合プロジェクトは事後対応的になっています。これらのプロジェクトは、ニーズが明らかになった時にだけ起ち上げられます。これは、業務部門の利害関係者からの要求に迅速かつ効率的に反応することが、至上命令になっているせいかもしれません。しかし、場当たり的な方法で統合プロジェクトは、大規模データ管理のニーズに適合しないようなポイントツーポイントインタフェースを増加させるリスクを招く恐れがあります。
この結果、独立したシステムやアプリケーションが導入され、以下のような様々な影響を及ぼします。
- 作業の複製が不可能なため、個々のプロジェクトの複雑性が原因となって、継続的なサポートや改善の費用が高額になります。
- データリネージが保証されないため、データの変換や品質を統制する現行のビジネスルールに合致しないプロセスを作成するリスクが高まります。
- 個々のシステムの拡張や更新は、独自のルール、カスタムコード、データの不一致によって各システムに対する特別な配慮が必要になり、複雑化します。
クリーンなデータへの投資
データ統合プロジェクトを起ち上げるときに、未来を予測することはできません。各業務部門が、精度の高い予測を行っていたとしても、やはりインサイトに欠けています。今できることは、ポイントインタフェースへの依存を打破し、ベストプラクティスを忠実に実行することです。たとえば、次のようなベストプラクティスを行います。
- 依存を軽減するために、アプリケーションを分離する。
- システム間の情報交換に関して、データ統合標準を導入する。
- 様々なレイテンシーにおいて、ステージングを利用することで、大規模なデータセットの消費を効率化する。
- 生データからメタデータへのエンドツーエンドな可視性を実現するために、データの変更履歴を残しておく。
こうした手順に費やす時間やリソースはないと思うこともあるでしょう。また、データの信頼性を維持するために必要な作業について、利害関係者からの確約が取れないのかもしれません。しかし、データ管理ソリューションの一元化に抵抗を示す時間が長くなれば、それだけ問題は深刻化するだけです。
こうした課題が克服できないように感じたら、これらのプロセスを(全部でなくても一部だけでも)自動化するソリューションを検討することをお勧めします。詳しくは、ホワイトペーパー「The Next-Generation of Data Integration: Transforming Data Chaos into Breakthrough Results(次世代型データ後統合:データの混乱を解き、画期的な業績を実現する)」をお読みください。従来のデータ統合アプローチから生じる妥協をなくすための代替策が紹介されています。
資料
- 1『2012 BI Benchmark Report』および『2008 BI Benchmark Report』、Data Warehousing Institute
データ管理ソリューションの一元化に抵抗を示す時間が長くなれば、それだけ問題は深刻化するだけです。