今や企業にとって、データを収集し分析する「データ&アナリティクス」の構築は不可欠なものとなっています。この記事では、実際に構築するうえで立ちはだかる問題について、カテゴリー別に解説します。また、それらの解決方法と、おすすめのDNA Acceleratorソリューションについてもご紹介しますので、ぜひ参考にしてください。
データ&アナリティクスの構築における問題
近年、多くの企業にとって、データの分析や活用は市場競争で生き残るために不可欠であり、重要な取り組みとなっています。ただ、よりよいデータ&アナリティクス(分析)の実現のために自社で環境を構築する際は、さまざまなハードルがあることも事実です。ここでは、その例をいくつか確認します。
インテグレーションの問題
インテグレーションには「統合」という意味があります。データ分析のためには、まずデータソースやシステムから必要なデータを抽出することが必要です。ただ、一般的にデータはさまざまな形式で社内に分散しています。それらを収集したとしても、そのまま使えるわけではなく、分析できる形に整えなければなりません。
このようにデータソースからデータを収集し、数の集合体に過ぎなかったデータを意味のあるものに変換、書き出すインテグレーションの作業は、「データパイプライン」や「ETLプロセス」と呼ぶこともあります。ETLは「Extract(抽出)」、「Transform(変換)」、「Load(書き出し)」の頭文字をとった略語です。
データの問題
先に述べたように、データはもともとある一か所でまとまっているわけでなく、社内のあらゆる場所に点在しています。また、データを格納しているデータベースが異なるケースも少なくありません。部署によって別々のシステムを使って管理しており、扱っているデータ形式もまちまちで統一感がないという事態もよく見られます。
部門間のオペレーションがサイロ化すると、スムーズにデータを収集することすら難しくなります。これは、企業における各部門が他部門との連携を考えずに、自組織だけで最適なシステムを構築してしまうことが原因です。
ツールの問題
データ分析を効果的に行うためには、データ活用基盤(プラットフォーム)を整備することも重要です。データレイク、データウェアハウス(DWH)、データマートといった3層のツールでデータを収集・蓄積し、分析するのが一般的です。
しかし、現在使用しているツールやシステムを入れ替えることに、抵抗感を示す企業も少なくありません。結局、多くの企業ではExcelなど特定のツールのみが使われ、効果的なデータ活用が困難な状況です。また、ツールが一元化されていない場合、さまざまなツールからデータを拾い集めることが求められます。
テクノロジー変化の問題
そもそも多くの企業でデータを収集・分析しているのは、ビジネス上の意思決定に用いる知見を得るためにほかなりません。変化の激しい市場で、最適なビジネスインテリジェンスを支えるためには、BIツールが必要です。ただ、BIツールにもさまざまな種類があり、製品によっては制約を受けるケースもあります。
また、データプラットフォームに柔軟性がなければ、自社が望むカスタマイズが困難なこともあります。さらに、データ分析に関する専門的人材としてデータサイエンティストが求められますが、人材獲得に窮するケースは少なくありません。
データ&アナリティクスの諸問題を解決するには
データ&アナリティクスの諸問題を解決するには、2つのポイントが挙げられます。
まず、データの収集から活用まで一貫して支援してもらえるソリューションを導入することです。自社が容易にオペレーションをコントロールできるものを選びましょう。
また、迅速かつ効果的なアプローチで進めることも大切なポイントです。従来はデータプラットフォームなどの整備、データ抽出・分析、ダッシュボードの作成などをそれぞれこなしていくアプローチが主流でした。しかし、それでは変化の速い市場の動きに対応していくことは困難です。ビジネス上の価値やメリットにフォーカスし、低リスクでスピーディにセットアップできるソリューションがおすすめです。
データ&アナリティクスに対するアプローチ
データ&アナリティクスをより効果的に実現させるために、企業はどのようなアプローチで進めればよいのでしょうか。Microsoft社のグローバルソリューションパートナーとして活動するHSOでは、データ&アナリティクス基盤を短期間で構築できる、DNA Acceleratorのソリューションを提供しています。具体的なアプローチ方法は、以下のとおりです。
データドリブンアプローチ
これまで主流とされてきたアプローチでは、データパイプライン、データ抽出、データウェアハウス、KPI開発、データセキュリティ、ダッシュボード作成など、それぞれに時間や労力をかけながら行う必要がありました。
一方、DNA Acceleratorではインフラではなく、データをもとに客観的に意思決定するデータドリブンアプローチを採用しています。リスクを回避して迅速にセットアップできるほか、メンテナンスも容易で、運用中に生じた変化に応じて拡張しやすくなっています。Microsoftのテクノロジーを活用し、データをもとに進めるため、データ&アナリティクスの効果を最大化できるのが特長です。
ベストプラクティスに基づいたアプローチ
DNA Acceleratorでは、いくつかのフェーズによって、データ分析におけるベストプラクティス(最善の方法)に基づいたアプローチを行います。
まず、バラバラに分散しているデータソースを単一のプラットフォームに統合できる、インテグレーション機能があります。また、データフローを定義し、複雑になりがちなフロー同士の関係を分析・管理する、オーケストレーションを実現できます。さらに、データ分析の経過を継続的に観察できるモニタリング機能も搭載しているのがポイントです。
ソースコードの管理や共有が可能なAzure Reposや、マイクロソフト社のPower BIレポートを通してデータ提供も行えるようになります。
まとめ
データ&アナリティクスを実現するためには、さまざまなハードルをクリアする必要があります。まずインテグレーション(統合)の問題として、データ形式を分析できるように加工する前処理が必要です。
データのサイロ化も重要な課題です。データモデルが断片化している、あるいはデータベースが異なる場所にあるうえに、オペレーションが分断すると、データを収集することすら困難になります。また、従来のツールに固執していたり、ツールが一元化されていなかったり、データ活用基盤の整備を難しく考えたりしている企業はまだまだ多いと考えられます。ほかにも、BIツールなどで技術的な変化に対応できるかどうか、データサイエンティストなど専門的な人材を確保できるかどうかも重要な問題です。
これらの問題を効率よく解決するためには、データドリブンとベストプラクティスという両方の観点からアプローチすることが大切です。HSOが提供するDNA Acceleratorは、データソースから抽出したデータをAzure上で保管し、データクレンジングを行います。さらに、データウェアハウスからデータモデルでモデリングを行い、Power BIでレポーティングをします。ほぼ2カ月でプラットフォームがセットアップされ、本番環境によるPower BIレポートも3カ月以内で届く、スピーディなスケジュール感です。
ローコードをベースに使いやすいDNA Acceleratorを活用することで、生産性が向上するほか、迅速に意思決定が可能になります。さらに、大規模なデータも容易に処理でき、システム全体の効率性を高めることも可能です。Power BI のレポーティング機能などで情報の可視化も実現できます。