データプロダクトキャンバス

英語名 Data Product Canvas
読み方 データプロダクト キャンバス
難易度
所要時間 1〜2時間
提唱者 データメッシュ(Zhamak Dehghani)の思想をキャンバス形式に体系化
目次

ひとことで言うと
#

データを社内外の「ユーザー」に提供する製品と捉え、誰のどんな課題を解決するのか・品質基準は何か・どう提供するかを1枚のキャンバスに整理するフレームワーク。データメッシュの思想と相性がよく、分散型データ基盤での「データの責任者」を明確にする際に使われる。

押さえておきたい用語
#

押さえておきたい用語
データプロダクト(Data Product)
特定のユーザーの課題を解決するために設計・運用・改善されるデータの提供単位。単なるテーブルやダッシュボードではなく、SLAや品質保証を伴う。
データオーナー(Data Owner)
そのデータプロダクトの品質・更新・利用ルールに最終責任を持つ人またはチーム。
SLA/SLO(Service Level Agreement / Objective)
データの鮮度・可用性・正確性について利用者と合意する品質基準のこと。
ドメイン(Domain)
データの発生源となる業務領域。マーケティング、受注、顧客サポートなどビジネスの文脈で区切る。
セルフサービスアクセス(Self-Serve Access)
利用者がエンジニアに依頼せず、カタログやAPIから直接データを取得できる仕組み。

データプロダクトキャンバスの全体像
#

データプロダクトキャンバス:9つの構成要素を1枚に整理する
データプロダクトキャンバスユーザー誰がこのデータを使うか?ペルソナ・利用頻度アクセス手段課題・ユースケースどんな意思決定を支えるか?解決する業務課題主要な問いデータソースどこからデータを取るか?ソースシステム・更新頻度取得方法品質基準(SLA)鮮度・正確性・可用性許容遅延・欠損率監視アラート条件スキーマ・モデルデータの構造と定義カラム定義・型・粒度バージョニング方針提供インターフェースどう届けるか?API / テーブル / ファイルカタログ登録オーナーシップ & 運用誰が責任を持ち、どう運用するか?オーナーチーム・問い合わせ窓口更新運用・障害対応フローセキュリティ & ガバナンス誰がアクセスでき、どう守るか?アクセス権限・匿名化ルールデータ保持期間・法規制対応
データプロダクトキャンバスの進め方フロー
1
ユーザーと課題の特定
誰のどんな意思決定を支えるかを定義
2
ソースとスキーマ設計
データの出所・構造・品質基準を決める
3
提供と運用の設計
インターフェース・オーナー・SLAを確定
カタログ登録・運用開始
発見可能な状態で公開し継続改善

こんな悩みに効く
#

  • データ基盤にテーブルが大量にあるが、どれが信頼できるかわからない
  • 「このデータ、いつ更新されるの?」「定義は?」という問い合わせが絶えない
  • データの品質問題が発覚するのが、いつも経営レポートの直前
  • データメッシュを導入したいが、各ドメインに何を求めるか基準がない

基本の使い方
#

ユーザーと課題を定義する

このデータプロダクトを誰が・何のために使うかを明確にする。

  • ペルソナを1〜3個設定する(例: マーケ分析チーム、経営企画、データサイエンティスト)
  • それぞれが答えたい問いをリストアップする(例: 「先月のチャネル別CAC」)
  • 利用頻度とアクセス手段(SQL / ダッシュボード / API)も把握する
データソースとスキーマを設計する

課題を解決するためにどのデータが必要かを逆算する。

  • ソースシステム(CRM、広告プラットフォーム、DB等)を特定する
  • カラム定義・粒度(日次 / イベント単位)・主キーを決める
  • スキーマのバージョニング方針(破壊的変更の扱い)も合意しておく
品質基準(SLA)を決める

利用者と合意できる品質ラインを設定する。

  • 鮮度: 何時までに更新されるか(例: 毎朝9時までに前日分)
  • 正確性: 欠損率・重複率の許容範囲(例: 欠損率0.5%以下)
  • 可用性: ダウンタイムの許容範囲(例: 月間99.5%稼働)
  • 基準を超えたときのアラートと対応フローも定める
オーナーシップとガバナンスを設定する

このデータプロダクトの責任者と運用ルールを明文化する。

  • オーナーチームと問い合わせ窓口を決める
  • アクセス権限(誰が・どのレベルで・どう申請するか)を設計する
  • データカタログに登録して発見可能な状態にする

具体例
#

例1:マーケティングチームの広告効果データを製品化する

EC企業のマーケティングチーム8名が、毎週5時間かけてGoogle Ads・Meta Ads・LINE広告のデータを手動でスプレッドシートに集約していた。集計ミスが月2〜3回発生し、予算配分の判断が遅れていた。

データプロダクトキャンバスで整理:

構成要素内容
ユーザーマーケ分析チーム、経営企画
課題チャネル別CACとROASをリアルタイムに把握したい
データソースGoogle Ads API、Meta Marketing API、LINE Ads API、自社DB(注文テーブル)
品質基準毎朝8時までに前日分反映、欠損率0.3%以下
スキーマチャネル×日次粒度、統一カラム定義(spend / impressions / clicks / conversions / revenue)
提供方法BigQueryテーブル + Lookerダッシュボード
オーナーマーケデータチーム(2名)
ガバナンス閲覧権限は部門長承認、個人情報は含まず

導入後、手動集計の週5時間がゼロに。集計ミスもなくなり、予算の再配分判断が月次から週次に短縮された。CPA(獲得単価)は3か月で18%改善した。

例2:人事データプロダクトで退職予兆を検知する

従業員1,200名のIT企業で、離職率が前年比3ポイント上昇して14%に達した。人事部は「退職の兆候を早期に察知したい」と考えたが、データが人事システム・勤怠システム・1on1記録ツールの3システムに散在していた。

キャンバスで設計した内容:

  • ユーザー: HRBPチーム4名、部門マネージャー15名
  • 課題: 退職リスクの高い社員を3か月前に特定し、介入したい
  • データソース: SAP SuccessFactors(人事マスタ)、KING OF TIME(勤怠)、TeamUp(1on1記録)
  • 品質基準: 毎週月曜朝に更新、欠損率1%以下、スコアの偽陽性率20%以下
  • スキーマ: 社員ID×週次粒度、残業時間・有給取得率・1on1実施率・評価推移を統合
  • ガバナンス: 閲覧はHRBPと直属マネージャーに限定、個人名は匿名IDで管理、本人開示ルールを策定

運用開始6か月後、退職予兆スコアが高い社員への面談実施率が30%→85%に上昇。早期介入により退職率は14%→10.5%に改善。採用コスト換算で年間約2,400万円の削減効果があった。

例3:BtoB SaaSの利用状況データをカスタマーサクセスに提供する

BtoB SaaSを300社に提供する企業で、カスタマーサクセスチーム6名が顧客の利用状況を把握するのに1社あたり30分かかっていた。管理画面のログ、Stripeの決済データ、Zendesk のチケットをそれぞれ見に行く必要があったからだ。

キャンバスで整理した結果:

  • ユーザー: CSチーム6名、プロダクトチーム4名
  • 課題: ヘルススコアを一覧で把握し、解約リスクの高い顧客に先手を打ちたい
  • データソース: 自社アプリケーションDB(利用ログ)、Stripe API(MRR・請求)、Zendesk API(チケット)
  • 品質基準: 日次更新、スコア計算のロジックをドキュメント化、異常値アラート付き
  • スキーマ: 顧客ID×日次粒度、DAU・機能利用率・MRR・チケット数・CSAT を統合
  • 提供方法: Redashダッシュボード + Slack日次通知(スコア急落時)
  • オーナー: データエンジニアリングチーム、スコアロジックはCS責任者がオーナー

1社あたりの状況把握が30分→3分に短縮。月次のチャーンレートは4.2%→2.8%に低下し、アップセル提案のタイミングも改善されて拡大MRRが22%増加した。

やりがちな失敗パターン
#

  1. ユーザー不在で設計を始める — エンジニアだけで「きれいなデータモデル」を作っても、利用者の課題に合っていなければ使われない。最初にユーザーインタビューを行う
  2. 品質基準を曖昧にする — 「できるだけ正確に」では運用できない。鮮度・正確性・可用性を数値で定義し、監視の仕組みまで含めて合意する
  3. オーナーを決めない — 「みんなで管理する」は「誰も管理しない」と同義。1つのデータプロダクトに対して1チームが責任を持つ形にする
  4. 作ったきりで改善しない — 利用状況やフィードバックを定期的にレビューし、スキーマの見直しやSLAの調整を行う。データプロダクトもソフトウェアと同じく継続的に改善するもの

まとめ
#

データプロダクトキャンバスは、データを「誰かの課題を解決する製品」として設計するための1枚のフレームワークである。ユーザー・課題・ソース・品質基準・スキーマ・提供方法・オーナーシップ・ガバナンスを埋めていくことで、「なんとなく作ったテーブル」と「信頼できるデータプロダクト」の差が明確になる。大事なのはユーザーの課題から逆算すること。技術的に美しいモデルより、使われて意思決定を変えるデータこそ価値がある。