それって単なるマーケティング分析じゃ…? よくある“ビッグデータ”の勘違い

経済

公開日:2014/2/10

 僕はもう「ビッグデータ」という言葉の濫用にうんざりしている。新聞やテレビで「ビッグデータを活用した新たな取り組みが~」という導入で報じられるニュースは、ほぼ間違いなくビッグデータではない話題だ。食品偽装ならぬ、ビッグデータ偽装じゃないかと頭を抱えてしまう。

 IBMなどによるとビッグデータは以下の4つの特徴を備えているべきものだ。

advertisement

(1)巨大なデータ「容量」
(2)多様な(構造化されているとは限らない)データの「種類」
(3)ICタグやセンサーからリアルタイムに生成されるデータの「頻度」
(4)曖昧さや不正確さを排除し、データによる意思決定を行う「分析技術」

 つまり、データが数千件と少なければそもそも(1)の容量の要件を満たさないし、顧客の注文情報のような定型で構造化された情報であれば(2)の多様性という要件から外れる。(3)は顧客や担当者が必要に応じて手で入力するような頻度・スピードではなく、スマホや自動車の位置情報や、生体センサーから刻々と送られる血圧や脈拍の情報などを指している。そうやって莫大に、ものすごいスピードで蓄積され続けるデータを、(4)いかに分析するか? そこにビッグデータの肝がある。

 したがって、学習塾の生徒の回答傾向の分析や、回転寿司でのオーダー情報の収集は、ビッグデータとよぶのは少々無理がある。企業からすれば「ビッグデータ」と紹介されれば注目があつまるのだろうけれど…。ヤフーやアマゾン、グーグルあるいはモバゲー、グリーのような巨大ウェブサービスでのユーザーの行動履歴くらいの規模にならないと「ビッグ」ではないのだ。

 ビッグデータの蓄積には従来とは異なるシステムが求められる。そして膨大なデータから必要な要素を抽出したり、他のデータと組み合わせて分析する専門家=データサイエンティストのスキルが活用の鍵を握る。

 ITジャーナリスト西田宗千佳氏による『顧客を売り場に直送する ビッグデータがお金に変わる仕組み』(講談社)は、いまなぜこのビッグデータに注目が集まっているのか? そしてそこにどんな課題があるのか? 丹念な取材に基づいてその全貌を把握できる1冊になっている。

 その事例は、膨大なデータを生むセンサーとしてのウェアラブルデバイス(グーグルグラスなど)から、ホンダやトヨタによるカーナビの位置情報の活用、ヤフー検索からの選挙の結果予測、ソフトバンクのラーメン店検索アプリを用いた通信品質の改善、テレビの放送内容や発言をメタデータとして蓄積する企業、など多岐に及ぶ。

 西田氏は取材を通じて「ロングテールは成立していない」と指摘する。いくら売り場面積に制約がないネットでも、売れないものは全く売れずその偏りはむしろ大きくなっているという。ネット上でのユーザーの視野は意外と狭いのではという仮説から、昨年の「悪ふざけ写真投稿の炎上」(=普段ソーシャルメディアで見ている風景がすべてだと勘違いしてしまった結果、「武勇伝」を不用意に晒してしまう)も起こったのではないかと西田氏は指摘する。

 情報が爆発的に増え、消費者の価値観も多様化し、一方で見渡せる範囲は相対的に小さくなる中、企業が顧客に「情報を届ける」ことが難しくなったと氏は指摘する。そこでユーザーの行動を分析し、リアル・バーチャルを問わず予め彼らが訪れるであろう場所に「フェンス」を設けておき、無理強いすることなく売り場に誘導していくというのが、ビッグデータ活用の目指す大きなゴールのひとつだという。それが「顧客を売り場に直送する」というタイトルにも通じている。

 そんな中、問題になってくるのがプライバシーだ。企業に情報を意識する・しないに関わらず提供しているという自覚を私たちも持っていた方がいい。もちろん過度な恐怖を持つ必要はない、企業が欲しいのは「あなた(の情報)」ではなく、あくまでも「属性」なのだと西田氏はいう。しかし一方で、企業や国による情報の安易な収集は、危険だという指摘も忘れてはいない。情報を提供する側、利用する側がどこに落としどころを設けるのか、いまはその最後の機会なのだ。ビッグデータがすごい、などと浮かれている場合ではない。

文=読書電脳