ベロシティトラッキング

英語名 Velocity Tracking
読み方 ベロシティ トラッキング
難易度
所要時間 継続的に計測
提唱者 スクラム / アジャイルコミュニティ
目次

ひとことで言うと
#

各スプリントで「完了」したストーリーポイントの合計値(ベロシティ)を記録し続けることで、チームがどれくらいの作業をこなせるかを把握し、将来の計画に活かす手法。

押さえておきたい用語
#

押さえておきたい用語
ベロシティ(Velocity)
1スプリントで完了したストーリーポイントの合計値のこと。チームの「実績に基づく作業量の目安」として使う。
バーンダウンチャート(Burndown Chart)
スプリント内の残作業量の推移をグラフ化したもののこと。ベロシティが「スプリント間」の指標であるのに対し、バーンダウンは「スプリント内」の指標。
レンジ予測(Range Forecast)
楽観値・基本値・悲観値の3パターンでリリース時期を予測する手法のこと。単一の数値よりも信頼性が高い。
ポイントインフレ(Point Inflation)
ベロシティを上げるために見積もりポイントを意図的に大きくする現象のこと。ベロシティをKPIにすると発生しやすい。

ベロシティトラッキングの全体像
#

ベロシティトラッキング:記録→可視化→計画→予測の4ステップで精度を高める
1. 記録する完了アイテムのSPを合計部分完了はカウントしない2. 可視化する棒グラフで推移を表示3〜5Sの平均とレンジを把握3. 計画に活用する平均ベロシティで取り込み量を決定変動要因を加味して調整4. リリースを予測する残SP ÷ 平均V = 残スプリント数楽観/基本/悲観のレンジで報告残SP ÷ V = リリースまでの期間レンジで伝える:「6〜10週間で完了見込み」
ベロシティトラッキングの活用フロー
1
記録
完了SPをスプリントごとに蓄積
2
可視化
棒グラフで推移と平均値を表示
3
計画活用
平均ベロシティで取り込み量を決定
リリース予測
レンジでステークホルダーに報告

こんな悩みに効く
#

  • スプリントで毎回、計画した量を終わらせられない
  • 「この機能はいつ完成しますか?」と聞かれても答えられない
  • チームの生産性が上がっているのか下がっているのかわからない

基本の使い方
#

ステップ1: スプリント完了時にベロシティを記録する

各スプリントの終わりに、「完了の定義」を満たしたアイテムのポイント合計を記録する

  • 未完了のアイテムはカウントしない(部分完了も含めない)
  • スプリントレビューで「完了」と認められたものだけが対象
  • スプレッドシートやツール(Jira等)で記録を蓄積する

ポイント: 中途半端なものをカウントしないのが鉄則。完了したものだけをカウントする。

ステップ2: ベロシティの推移を可視化する

棒グラフでスプリントごとのベロシティを並べて表示する

  • 横軸にスプリント番号、縦軸にストーリーポイントを取る
  • 直近3〜5スプリントの平均値を計算する
  • 上下のブレ幅(レンジ)も把握する

ポイント: 1回のスプリントの値で判断しない。3〜5スプリントのトレンドで見ることが大事。

ステップ3: スプリントプランニングに活用する

平均ベロシティを基準に、次のスプリントで取り込む量を決める

  • 直近3スプリントの平均ベロシティが30ptなら、次も30pt前後を目安にする
  • 新メンバー加入や休暇などの変動要因は加味して調整する
  • 慣れるまでは平均の80%程度に抑えるのが安全

ポイント: ベロシティは「目標」ではなく「実績に基づく予測」。無理に上げようとしない

ステップ4: リリース予測に活用する

残りのバックログのポイント合計を平均ベロシティで割り、リリース時期を予測する

  • 残バックログ: 120pt、平均ベロシティ: 30pt/スプリント → 約4スプリント(8週間)
  • 楽観値(最大ベロシティ)と悲観値(最小ベロシティ)でレンジも出す
  • バックログの追加を見込んで、バッファを加えるとより現実的

ポイント: レンジで伝えるのがコツ。「6〜10週間で完了見込み」のように幅を持たせる。

具体例
#

例1:Webサービス開発6名チームが6スプリント分のデータからリリース予測する

背景: BtoC Webサービス開発チーム6名。2週間スプリント。残バックログ90ptのリリース時期をステークホルダーに報告したい。

ベロシティ推移:

Sprintベロシティ備考
S122pt初スプリント
S228pt
S325pt
S430pt
S527ptメンバー1名が半日研修
S632pt

分析:

  • 全体平均: 27.3pt/スプリント
  • 直近3スプリント平均: (30+27+32) ÷ 3 = 29.7pt
  • 最大値: 32pt、最小値: 22pt

リリース予測(残バックログ90pt):

シナリオベロシティ必要スプリント数期間
楽観32pt2.8S6週間
基本30pt3.0S6週間
悲観25pt3.6S8週間

報告: 「6〜8週間でリリース可能な見込みです。バックログの追加がなければ、7週間を中心に見ています」

結果: 実際のリリースは6.5週間目。レンジ予測の範囲内に収まり、ステークホルダーの信頼を獲得。「○週間で完了します」ではなく「6〜8週間の見込み」とレンジで伝えたことで、期待値を適切にコントロールできた

例2:BtoB SaaS 10名チームがベロシティの急低下を分析して原因を特定する

背景: 法人向けSaaSの開発チーム10名。2週間スプリント。S8からベロシティが急低下し、原因を調査。

ベロシティ推移:

Sprintベロシティ計画計画達成率
S545pt45pt100%
S648pt45pt107%
S744pt46pt96%
S832pt46pt70%
S928pt40pt70%
S1030pt35pt86%

原因分析:

  • S8から新機能の技術スタックが変更(React→Next.js移行)
  • 学習コストがベロシティに反映されていなかった
  • S8〜S9で割り込みバグ対応が合計18時間発生
  • DoDを厳格化(セキュリティレビュー追加)がS7から適用

対応策:

  1. 技術移行期は平均ベロシティの70%で計画する方針に変更
  2. 割り込みバグ対応のバッファとして全体の15%を確保
  3. DoD変更後のベロシティを「新しいベースライン」として再設定

結果: S11以降のベロシティは33〜36ptで安定。新ベースライン34ptで計画したS12〜S14の計画達成率は95%以上に回復。ベロシティの低下を「問題」ではなく「環境変化の反映」と正しく捉え、計画を再調整したことが回復の鍵だった

例3:自治体DXチーム5名が初めてベロシティトラッキングを導入する

背景: 人口6万人の自治体がDX推進チーム5名(うちエンジニア2名)を新設。住民向け申請ポータルを開発。アジャイル開発は初体験。

導入ステップ:

  1. 最初の2スプリントはストーリーポイントを使わず、完了アイテム数で計測
  2. S3からフィボナッチ数列(1,2,3,5,8,13)で見積もり開始
  3. S5からJiraでベロシティチャートを自動生成

ベロシティ推移:

Sprintベロシティ見積もり精度
S14件-(件数のみ)
S25件-(件数のみ)
S312pt見積もりに慣れず
S418pt基準ストーリー設定後
S516ptGW休暇で稼働減
S620pt
S719pt
S821pt

平均ベロシティ(S4以降): 18.8pt/スプリント

リリース予測: 残バックログ75pt → 75 ÷ 18.8 = 約4スプリント(8週間)。悲観値(16pt)で約4.7スプリント(10週間)。

結果: 実際のリリースは9週間目。予測レンジの範囲内。住民向けポータルの利用登録率は初月で世帯の23%を達成。アジャイル未経験のチームでも、ベロシティを「自分たちのペースを知る道具」として素直に使ったことで、無理のないスケジュール管理ができた

やりがちな失敗パターン
#

  1. ベロシティをKPIにする — ベロシティを「チームの成績」として扱い、上げることを目標にすると、見積もりのインフレ(簡単な作業に高ポイントをつける)が起きる。ベロシティは計画ツールであり、評価ツールではない
  2. チーム間で比較する — ベロシティの単位はチームごとに異なる。Aチームの30ptとBチームの30ptは同じ量の仕事ではない。チーム間比較は無意味であり有害
  3. 最初のスプリントから信用する — ベロシティが安定するには3〜5スプリントかかる。初期のデータはノイズが多いことを前提にする
  4. 環境変化を考慮しない — メンバーの増減、技術変更、DoDの変更などがベロシティに影響する。変化があったらベースラインを再設定する

まとめ
#

ベロシティトラッキングは、チームの「実力値」を客観的に把握し、計画とリリース予測に活用する手法。ベロシティは目標でも評価指標でもなく、「実績に基づく計画ツール」として使うのが正解。3〜5スプリントのデータが溜まれば、精度の高いスプリント計画とリリース見通しが立てられるようになる。レンジで予測を伝えることで、ステークホルダーとの信頼関係も築ける。