データパイプライン設計

英語名 Data Pipeline Design
読み方 データ パイプライン デザイン
難易度
所要時間 1〜4週間(設計〜構築)
提唱者 データウェアハウス(ビル・インモン)とETLの概念から発展
目次

ひとことで言うと
#

データが**生成される場所から、分析・活用される場所まで流れる道筋(パイプライン)**を設計すること。散在するデータを収集し、変換・加工し、分析可能な形で格納し、ダッシュボードやモデルに届ける「データの水道管」を構築する。

押さえておきたい用語
#

押さえておきたい用語
ETL / ELT
Extract(抽出)→ Transform(変換)→ Load(格納)の頭文字。ETLは変換してから格納、ELTは格納してから変換する方式のこと。クラウドDWHの普及でELTが主流になりつつある。
オーケストレーション(Orchestration)
パイプラインの実行順序・スケジュール・依存関係を管理する仕組みのこと。AirflowやDagsterなどのツールで「毎朝6時にAを実行→完了後にBを実行」のように制御する。
べき等性(Idempotency)
同じ処理を何回実行しても結果が変わらない性質のこと。パイプラインが途中で失敗した際に安全にリトライできるために不可欠。
データリネージ(Data Lineage)
あるデータがどのソースから来て、どう変換されたかを追跡できる記録のこと。問題発生時の原因特定やデータの信頼性判断に必要。

データパイプライン設計の全体像
#

データパイプライン:ソースから活用まで、データの流れを設計する
アプリDBPostgreSQL等SaaS / APIGA4, Stripe等ファイル / ログCSV, JSON等E: 抽出全件 or 差分Fivetran, AirbyteT: 変換加工・集約・結合dbt, SparkL: 格納DWH / BI接続BigQuery, Snowflake監視・運用の仕組み品質チェック障害アラートリネージ記録構築して終わりではなく、運用し続ける
データパイプライン設計の進め方フロー
1
ソースと目的を整理
利用目的から逆算して設計
2
ETL/ELTを設計
更新頻度・データ量・遅延許容度
3
ツール選定
取込・変換・格納・BI
監視・運用
品質チェック+アラートで安定稼働

こんな悩みに効く
#

  • データがあちこちに散らばっていて、分析のたびに手作業で集めている
  • レポート作成に毎回何時間もかかり、自動化したい
  • データの鮮度が悪く、先週のデータで今日の判断をしている

基本の使い方
#

ステップ1: データソースと利用目的を整理する

まず、どこからデータを取り、何に使うのかを明確にする。

データソースの例:

  • Webアプリのデータベース(PostgreSQL、MySQLなど)
  • SaaSツール(Salesforce、GA4、Slack、HubSpotなど)
  • ログデータ(サーバーログ、アプリログ)
  • 外部API(天気、株価、SNSデータ)
  • スプレッドシート、CSVファイル

利用目的の例:

  • 経営ダッシュボード(日次更新)
  • マーケティング分析(週次レポート)
  • 機械学習モデルの学習データ
  • リアルタイムのアラート・通知

利用目的から逆算して設計するのが鉄則。「とりあえず全データを集める」はNG。

ステップ2: ETL/ELTのフローを設計する

データの変換処理の流れを設計する。

ETL(Extract → Transform → Load):

  • データを抽出し、変換してから格納する
  • データ量が少ない場合やオンプレミス環境に適する

ELT(Extract → Load → Transform):

  • データをまず格納し、格納先で変換する
  • BigQueryやSnowflakeなどクラウドDWHの処理能力を活かす
  • 現在の主流

設計のポイント:

設計項目決めること
更新頻度リアルタイム?日次?週次?
データ量GB単位?TB単位?
遅延許容度数秒以内?数時間OK?
エラー処理失敗時の再実行方法、通知先
べき等性同じ処理を再実行しても結果が変わらないか
ステップ3: ツールとアーキテクチャを選定する

要件に合ったツールを選ぶ。

データ取り込み(Extract/Load):

  • Fivetran、Airbyte、Stitch → SaaSからの取り込みに強い
  • Embulk、Apache Kafka → 大規模・リアルタイム処理

データ変換(Transform):

  • dbt → SQLベースの変換。現在の主流。バージョン管理可能
  • Apache Spark → 大規模データの分散処理
  • Pandas/Python → 小規模データの柔軟な変換

データ格納(Storage):

  • BigQuery、Snowflake、Redshift → クラウドDWH
  • PostgreSQL → 小〜中規模

オーケストレーション(実行管理):

  • Airflow、Dagster、Prefect → パイプラインのスケジュール管理・監視

小規模ならFivetran + BigQuery + dbt + Lookerのような組み合わせで始めるのがおすすめ。

ステップ4: 監視・運用の仕組みを整える

パイプラインは構築して終わりではなく、運用し続けるもの。

必要な仕組み:

  • データ品質チェック: NULLの割合、値の範囲、レコード数の急変を自動検知
  • アラート: パイプラインの失敗、データ遅延をSlack/メールで通知
  • リネージュ(データの血統): どのデータがどこから来て、どう変換されたかを追跡可能に
  • ドキュメント: テーブル定義、変換ロジック、更新スケジュールを記録

dbtのテスト機能やGreat Expectationsなどのデータ品質ツールを活用する。

具体例
#

例1:BtoB SaaSスタートアップが分析基盤をゼロから2週間で構築する

状況: 従業員30人のBtoB SaaS。データ分析はスプレッドシートの手作業で、レポート作成に毎週半日かかっている。

ステップ1: データソースと利用目的の整理

ソースデータ利用目的
自社アプリDB(PostgreSQL)ユーザー行動データプロダクト分析
Stripe決済データ売上・MRRダッシュボード
HubSpot営業パイプライン営業進捗管理
GA4Webトラフィックマーケティング分析

ステップ2: ELTフローの設計

  • 更新頻度: 日次(朝6時に全パイプライン実行)
  • データ量: 合計10GB程度(まだ小規模)
  • 遅延許容: 数時間OK(リアルタイム不要)

ステップ3: ツール選定

  • Extract/Load: Fivetran(各SaaSから自動取り込み)
  • Transform: dbt(SQLで変換ルールを定義)
  • Storage: BigQuery(クラウドDWH)
  • BI: Looker Studio(ダッシュボード)

**結果: レポート作成時間が毎週4時間→0時間(自動更新)。データの鮮度が1週間遅れ→前日分まで反映。**構築期間はエンジニア1名で2週間。月額ツールコスト約5万円。

例2:EC企業がリアルタイム在庫連携パイプラインで機会損失を削減する

状況: 月商2億円のEC企業。実店舗3店とECサイトで在庫を共有しているが、在庫データの同期が1日1回のバッチ処理。ECで注文が入っても実店舗で売り切れていることが月平均120件発生し、キャンセル対応に追われていた。

パイプライン設計:

  • Extract: POS系(各店舗の販売データ)+ EC注文DB → Kafkaでリアルタイム取り込み
  • Transform: 在庫数の計算(入荷 - 販売 - 予約 = 現在庫)をリアルタイムに処理
  • Load: 在庫マスターDBに即時反映 → ECサイトの表示に連動

監視の仕組み:

  • 在庫数がマイナスになった場合の即時アラート
  • POS連携が5分以上遅延した場合の自動エスカレーション
  • 日次で在庫差異レポートを自動生成

**結果: 在庫不一致による注文キャンセルが月120件→8件に93%削減。**キャンセル対応にかかっていた月40時間の工数がほぼゼロに。売れ筋商品の在庫切れ表示が減り、EC売上が月平均12%向上。

例3:地方の製造業が手作業の月次レポートをパイプラインで自動化する

状況: 従業員150名の食品製造業。経営管理部の担当者が毎月初に3日間かけて、生産管理システム・会計システム・Excelの3ソースからデータを手動で集めて月次レポートを作成。ミスも月平均2件発生。

パイプライン設計(予算制約:初期50万円以内):

  • Extract: 生産管理システム(CSV出力)、会計システム(API)、Excel(Google Drive経由)
  • Transform: Pythonスクリプトで結合・集計・KPI計算
  • Load: Google BigQuery(無料枠内)→ Looker Studioのダッシュボード
  • オーケストレーション: Cloud Scheduler + Cloud Functions(月額数百円)

段階的な構築:

  1. 月次レポートの自動化(2週間)
  2. 日次の生産実績ダッシュボード追加(1週間)
  3. 品質管理データの取り込み追加(1週間)

**結果: 月次レポート作成が3日→自動化でゼロに。ミス発生もゼロ。**レポート作成に使っていた時間を分析に充てられるようになり、原材料の仕入れタイミング最適化で年間約300万円のコスト削減を実現。初期投資は約30万円(エンジニア委託費)。

やりがちな失敗パターン
#

  1. 最初から完璧なパイプラインを作ろうとする — すべてのデータソースを一度に接続しようとすると、構築に何ヶ月もかかる。最も重要なデータソース1〜2個から始めて、段階的に拡張する
  2. データ品質の監視を後回しにする — パイプラインが動いていても、データが壊れていたら意味がない。構築と同時にデータ品質テストを組み込む
  3. 変換ロジックをドキュメント化しない — 「このカラムはどう計算しているの?」に答えられなくなる。dbtのドキュメント機能やデータカタログを活用し、変換ロジックを常に追跡可能にする
  4. エラーハンドリングを想定しない — ソースシステムの仕様変更やネットワーク障害でパイプラインは必ず壊れる。リトライ・通知・ロールバックの仕組みを最初から設計する

まとめ
#

データパイプライン設計は、散在するデータを収集・変換・格納・活用する「データの水道管」を構築すること。手作業のレポートから脱却し、データドリブンな意思決定の基盤を作る。最初は小さく始め、最も重要なデータソースと利用目的から逆算して設計しよう。パイプラインが整えば、データ分析のスピードと質が劇的に変わる。