ソーシャルメディアとアクセス解析(ゲスト講師:伊藤将雄さん)

先日のウェブ・マーケティング論に(株)ユーザーローカルの代表取締役である伊藤将雄さんに来ていただいた。伊藤さんとは、かつて「みんなの就職」についてのインタビューをさせていただいた時からの付き合いなのだ。ユーザーローカルは「なかのひと」「うごくひと」「User Insight」、最近では「TwiTraq」といったアクセス解析ツールを開発している会社。ただし社員数はまだ10人ほどで、比率としては営業職の方が多いのだという。これには驚いた。


話はインターネットが他のメディアと違い、計量可能なメディアであるということ。そしてその計量可能なメディアへとユーザーの関心が向かい、ゆえに広告予算も向かってきているという前段。それを受けて、アクセス解析の話へと進んでいった。CTR(Click Through Rate)、CPC(Cost Per Click)、CVR(ConVersion Rate)という基本概念の説明と簡単な練習問題が続く。


私が興味深かったのは「現在のトレンド」という最後の部分であった。


あるWebページのリファラー情報を分析すると、1年半ほど前までは、以下が典型だったという。

これが現在では、

と変わってきたというのだ。


SNSCGM」が10%から15%へと増えたのは想像に難くない。そう。そういうサービスの利用者が増え、そこに張られたリンクからの流入が増えているからである。では、「リファラーなし」が増えているのはなぜか。私が「リファラーなし」で想像するのは、「ブラウザのお気に入りから直接」と「メール(の一部)」であったので、にわかにはその理由がわからなかったのだが、伊藤さんによれば、以下の2つが伸びているのだという。1つは、twitterのクライアントソフトから。そしてもう1つはソーシャルゲーム中の広告からの流入だという。


このようにソーシャルメディア(関連)からの流入は、厳密なリファラー情報がとりにくい。そういう現実にアクセス解析会社や自社メディアを持つ企業はさらされているのだという。「SNSCGM」に分類されるものでも、ログイン空間内にあるサービスについては単純に参照元ページの実物を確認しにくいという問題がある。またtwitterについても、仮にそれがクライアントソフトではないtwitter.comのウェブサイトからの流入であっても、100%にかなり近い数字でTLで見かけた誰かのtweetからの流入であるため、それはリファラーとしてはtwitter.com/ としかならない。たしかにそうだ。


さらにPermalinkに注目する私として興味深かったのは、Permalinkを持つtweetページからのアクセスであっても、2ヶ月前のtwitterの大幅なリニューアルで、リファラー情報が取れなくなってしまったという点であった。


AJAXが採用されたため、Permalinkを持つtweetページのURLはたとえばこんな風に表現されるようになったのだ。

http://twitter.com/#!/sameokun/status/4664346697269249

わかる人にはわかるが、ここには#がある。つまりそれ以下はソフトウェアには基本的には無視される(メール中に使われたりする#はここから派生していて、本来、そこからあとはつっこまないで、反応しないで、無視してということである。実は人間はあえてそこに突っ込んだりするのだが、ソフトウェアにとっては逆なのである)。


以上まとめると、主要なソーシャルメディアについては厳密なリファラー情報が極めてとりにくいし、とれても現物のページを確認しにくいということである。


それで企業がやっているのは、独自のURLを短縮URLを使って流入元になって欲しいページに対して発行し、それで識別するということだそうだ。10年前のデルの新聞広告で、掲載媒体によって印刷されたURLが違うという話を彷彿とさせる。また、そういう需要も短縮URLサービスにはあるのだ、とこれも新鮮な話であった。


#などと書いていたら、twitterが専用の解析ツールを出しそうだというニュースが入ってきた。
Twitter’s Official Analytics Product Has Arrived
#これは強力に差別化された製品になるな。


ユーザー導線の話はおいておき、伊藤さんの講義から触発され、私がマーケティング業務的な話として考えたのは以下。これは私見です。


まずは、マーケティングセクションとウェブのデザインセクションの距離が遠くなり始めているということ。


アクセス解析ツールはそれなりの普及を見せて、マーケティングセクション内部では数字という共通言語で話ができるようにはなってきているという。だが、じゃあその結果をサイトのデザインに反映するようになってきているかという必ずしもそうではないらしい。その一番の原因はマーケティングとウェブデザインのセクションが別だから。マーケティングの人間はサイトそのもののデザイン変更には踏み込めないから、自分たちが予算を持っている広告というソリューションに向かうのだという。そこでは結局人件費以上のコストが発生するというわけである。


さらにtwitterFacebookで企業アカウントが増えているのは、企業サイトの場合、制作コストがバカにならないからであると見た。twitterFacebookであれば、アイコン1つあれば担当者がアカウントを作れてしまい、マーケティングや広報の担当者がつぶやけばよい。さまざなな端末への対応ソフトも充実している。だからもうキャンペーンサイトを作るのはやめたという風になってきている。もちろんそのようなアカウントを継続していくのは大変なんだけど、基本的に人件費の範囲で収まる。


また、マーケティングセクションのケイパビリティについては以下のようなことを考えた。これについては、相変わらずデータ解釈力が低いという問題がありそう。前述のとおり、CTR、CPC、CVRという共通言語を得たものの、なぜそのような高い、あるいは低い数値なのかという議論は十分にはされていないようだ。してもわからないというのはもちろんあるんだけど。すなわち単なる時系列での数値チェックが主たる業務であるようだ。


ビジネス・インテリジェンスなんて話もあるけど、結局データを解釈して仮説を出せる人間、そして検証できる人間は少ない。極端に少ない。仮説を検証するためには新しいデザインの実装・制作も必要になるわけだが、そのためには他のセクションに頼まないといけない。それは前述のとおり。


結局それができている一部のウェブサービス企業が強い。それを普通の企業サイトに求めるのは無理だとも言える。だから、計測から制作までワンストップでやってくれる××コンサルティングという名の会社にも需要はあるわけだ。


実は私は、2002年の可視化技術がしょぼかった時代にアクセス解析ツールの販売を経験しているんだが、本当に売るのが難しかった。その最大の理由は、ツールを使って出てきたデータをどう解釈してよいのかがわからないというものだった。「そこが面白いし、それがあなたの仕事なんじゃないの、マーケターさん!」と内心思いながらいたわけだけど。さらに、2004年にはこんな話を私はしていたけど、人材やケイパビリティについてはあまり前進していないという印象を持った。



やり方としては、組織内部の解釈力を上げるのではなくて、ページ遷移のコンテクストをページ提供側がうんと限定してしまうというのもあるんだが、これについてはまたいずれ。


ともあれ、とても触発された講義でありました。伊藤さん、あらためてありがとうございました。