ページの本文へ

Hitachi

効率的なデータ精製

ビッグデータでビジネスを成功に導くには:

トランザクションや顧客などの構造化データが爆発的に増えたことで、従来のETLシステムはスローダウンし、分析が適切なタイミングで実施できないという問題が発生するケースがあります。このような問題の解決手段として、Hadoopを活用したシナリオを紹介します。

効率的なデータ精製により、オンデマンドであらゆるデータソースをブレンド、充実化、精製して、安全かつ分析に使用可能なデータセットにします。ビッグデータ処理のハブとしてHadoopを使用し、Pentahoのデータ統合機能(Pentaho Data Integration:PDI)により特定のデータセットの処理および精製を行います。1回のクリックで、データセットが自動的にモデル化、公開され、ユーザーはそのデータへすぐにアクセスし、分析できます。

概要

管理された分析データセットを提供

Pentahoのデータ統合・分析基盤と組み合わせることにより、Hadoopはパフォーマンスの高い、マルチソースのビジネス情報のハブとなるため、データを流してブレンドした後に、精製されたデータセットを代表的な分析データベース(Amazon RedshiftやHP Verticaなど)に自動的に公開できます。エンドユーザー向けには、データディスカバリーを始め、レポート、ダッシュボード、および可視化といった豊富な分析機能が用意されており、これらを使っていつでも高度な分析を行うことができます。

ブレンドされた大規模データセットを提供し、即時分析を実現

  • 大規模な分析データセットを提供するための実践的アプローチにより、即時かつ高性能な分析を実現
  • セルフサービスのデータ統合プロセスにより、多種多様な大量のデータのブレンドと充実化を実現
  • データ変換ステップやツールを活用したすばやいデータ統合プロセスにより、Hadoopクラスター内のデータ処理の簡素化を実現
  • 高性能分析データベースでの高速クエリや可視化などの自動プロセスを通して、セルフサービス分析を提供
*
本ページは、https://pentaho.com/products/pentaho-data-integration/のコンテンツを翻訳(抄訳)したものを掲載しています。