毎日確認すべき4つのデータ

いきなりですが、クイズです。この3つの映像の再生数はどれくらいで、再生数順に並べると、どういう順番になるでしょうか。

正解は、
1位:DUMB WAYS TO DIE(1億4169万0351回)
2位:VOLVO TRUCKS(8481万5548回)
3位:DOVE REAL BEAUTY SKETCHES(6723万2022回)

では世界的注目を集めたMVの場合はどうでしょうか?

正解は、
1位:PSY – GANGNAM STYLE(26億8461万9009回)
2位:Justin Bieber – Baby ft. Ludacris(14億8614万7232回)
3位:Pharrell Williams – Happy(9億0165万1454回)

想像を絶する再生数です…
なぜこんなクイズをしたかというと、この問いの正解率を上げ続けることが、バズを生み出し続けるために不可欠だからです。

世の中のコンテンツの閲覧数を推測する力は、自分でアウトプットしたコンテンツの拡散数を予測する力に直結します。そのコンテンツが、どういう推移で、どういう人に、どれくらい見られるかを見据えることが出来て初めて、そのコンテンツ制作にどれくらい予算をかけるべきか、いつPRを打つべきか、広告枠がどれだけ必要か、といったことを考えられ、精緻なコミュニケーション設計が可能になります。

そしてそれ以上に、何よりも重要なのは、どのアイデアにGOを出すべきかが判断できる、ということです。

基本的に広告では、どんなアイデアを実施するときにも、数十、数百のアイデアの山の中から、きらりと光る1案にGOを出しますが、拡散がうまくいかない例の大半は、その予測を失敗していることが原因だと考えられます。

予測という行為はものすごく難易度が高い。どんな天才クリエイターでさえも、PPAPがあれだけ拡散することは予測できません。逆に言えば、この予測能力を高めれば高めるほど、アイデアの選定力が高まり、バズの精度が飛躍します。

では、いかにしてその、予測能力を高めていくのか?
その答えはとてもシンプル。”データを貪ること”です。

データインプットステップ

「データ」と聞くと、誰しも小難しいグラフや、何千行もの表を想像するかもしれませんが、まず第一歩として捉えるべきデータは、日々誰もが触れている、もっと簡単な数字です。

そのデータとは、この4項目。
VIEW数
LIKE数
SHARE数
時間(推移)
具体例を見てみましょう。

CASE1:YOUTUBE映像の場合
今年の4月、岡崎体育さんのMV「Music video」が大きな話題をさらっていました。

STEP1:
まずニュースやSNSで話題の映像のネタが流れてきたら、その「VIEW数」を予測します。
このキャッチーなニュースタイトルと、このサムネイルの組み合わせで、果たして”どれくらいの人がクリックするか” ”すでにどれくらい賑わっているか”、そんな事を判断材料にした上で、YOUTUBEを開きます。そして、まず一回目の答え合わせを。
data_161120
なんと、すでに1300万再生を突破しています。

STEP2:
次、この動画が、いつ投稿されたかという「時間」をチェック。
data2_161120
その投稿日を見た上で、この映像がどのような推移で閲覧されたかを推測します。
投稿日の直後、爆発的に閲覧されたのか?それとも一定量ずっと閲覧され続けているのか?など。推測した後に、「その他」に隠された「統計」を見てます。
data3_161120
<累積view>

data4_161120
<日別view>
※統計情報が見られない映像も存在します。
すると、この映像の閲覧推移が確認できます。
この映像の場合は、投稿された後すぐに自走し伸びており、一定数のベースviewを獲得していますが、日別を見てみると、大きな山が数回生まれています。このデータから、この映像は4回の大きなメディア露出タイミングがあり、その都度再生を飛躍させている、と推測することが出来ます。
これはMVによく見られる推移傾向です。

STEP3
次に、この映像の拡散要因を考えてみます。
そもそもMusic Videoを楽曲のテーマにした点が「予想外」であり、詰め込まれているMVあるあるが「共感」と「議論」を呼び、「聴き心地」の良いサビがリピートを生んだ・・・といった点が主な要因だと考えられます。

以上のようなSTEPを経て、

– 「予想外」「共感」「議論」「聴き心地」という要素が詰まった映像が、
– 半年間で1300万再生を獲得。
– 平均毎日6万再生を継続的に獲得し、
– 露出タイミングに応じて4回の山が存在。

というデータセットを1つ得ることができます。

CASE2 : Twitterの場合

例えば11/11、ポッキー&プリッツの日。

STEP1:
投稿の総量は一体どれくらいなのか?
Twitterトレンド欄で、そのSHARE数を確認できます。2016年は、昼の段階ですでに50万件のツイートが。おそらく、1日で100万件は優に超えていることが予測されます。

STEP2:
次に、実際に「ポッキーの日」で検索をしてみます。すると、有吉さんのこんな投稿が出てきます。
data5_161120
1つの投稿で、40万を超えるエンゲージメントを生み出しています。他にも、様々な切り口で、ポッキー&プリッツの日がお祭り化しています。

data6_161120
data7_161120
data8_161120

STEP3:
この盛り上がりを要素分解してみると、そもそも11月11日が、ちょうどポッキーっぽい!という「偶然」を捉えて、”ポッキーの日”と命名。オフィシャルから、誰もが「真似」して「参加」しやすい「二次創作」のフレームを大量に提供し、その延長で「予想外」な創作が大量に発生。名だたるインフルエンサーや、企業との「コラボ」、そして「著名人」の投稿がその盛り上がりに燃料を注いだ…
こういった要素が抽出されます。

以上のようなSTEPを経て、
– 「偶然」「真似」「参加」「二次創作」「予想外」「コラボ」「著名人」という要素が詰まった活動体が
– 1日で100万件を超える投稿を誘発し、
– その中の1投稿は30万エンゲージメントを超える程波及した

というデータセットが蓄積されます。

この2つのケースはあくまでざっくりとした例であり、立場によって見るべき指標、見るべきコンテンツは変わってきますが、このように、定性的な解釈と、定量的な結果を組み合わせた「データセット」を、数千、数万件の束としてストックされたとき、初めて予測の精度を高めることが出来ます。いちいち記録などはせず、あくまでも肌感としてこのデータを脳内にストックし続けることが、誰もが始められる最初のデータの向き合い方なのではないかと思います。

おそらくこの感覚が一番強いのは、SNSの「中の人」や、「編集者」「メディア運用主」の方々だと思います。コンテンツを排出し続け、嫌が応でもデータを浴びている。そのデータのシャワーが、広告に携わる全ての人に必要になってきているのではないでしょうか。

ただし、中にはバズの傾向を逸脱した超巨大バズというものが存在しますし、これを書いてる僕自身も、100%バズを予測するということが到底無理です。あくまでも、予測の精度を高める、という意味で、この感覚の補正を続けることに意義があるのだと考えています。

以上、バズをいかに作るか、という側面から、第一歩としてデータとどう向き合うか、という話をまとめました。ただ当然のごとく、データの深みはこんなものではありません。さらに細かいデータをいかに読み解き、クリエイティブにつなげていくか、というプランニングの未来については、また改めて「続・バズの分解」にて、まとめたいと思います。

記事・画像:advertimes
サムネイル画像:NAVERまとめから

関連記事

ページ上部へ戻る