
業界が変われば、KPI・データ粒度・運用はガラッと変わります。本記事では小売/EC・広告/メディア・製造・IT/SaaSの4業界を横断し、「要件 → データ → 指標 → 打ち手」までを一気通貫で設計できる“実務テンプレ”として整理しました。
未経験の方は、ここから1業界を選んでPF(ポートフォリオ)化すれば、職務経歴書に直結します。
この記事で身につくこと
- 業界別KPIの“現場語”で語れるようになる
- 最低限のスキーマ設計→特徴量→評価→ダッシュボード運用までの型を流用できる
- PF(ポートフォリオ)を意思決定に接続する見せ方がわかる
>>【完全ガイド】データサイエンティストの仕事内容と必要スキル・年収
>>未経験からデータサイエンティストへ:6ヶ月ロードマップ【現役が解説】
>>【保存版】データ職のポートフォリオ完全ガイド|再現性・評価・LTまで
>>【保存版】モデル評価:指標の選び方・交差検証・閾値最適化・ビジネス接続を“実務の型”で解説
>>データ可視化レポート納品の型:Tableau/Matplotlib|“図3点+結論1行+運用”で伝わる・続く・刺さる
>>はじめてのSQL:SELECT/WHERE/GROUP BYを最短で理解【コピペOK】
>>【保存版】SQLite×Pythonで作る“ローカルDWH”——ETL・集計・レポート自動化の最短手順
>>コピペで動く需要予測|ARIMA×LightGBMでベースライン→運用まで
>>勤怠・売上の異常検知は設計が9割|SLOとRules→Stats→MLで“静かな監視”を作る
はじめに:業界を意識しない学習は“伝わらない”
Kaggle中心の学びは運用や意思決定への接続があいまいになりがち。さらに、粒度(日次/セッション/ロット)や遅延(集計タイミング)を無視すると、せっかくの分析も現場で使えません。
鍵は、業界ごとのKPI・スキーマ・運用文脈に合わせて「要件→データ→指標→打ち手」を設計すること。
筆者メモ(ふみと)
大手でデータ/マーケサイエンティストを10年。採用側・伴走側の両方で感じるのは、刺さるPFは例外なく「業界のKPI言語で語り、再現可能で、意思決定(閾値/在庫/配信)まで踏み込む」ということ。本稿は、その“型”を圧縮して渡します。
この記事の使い方
各業界ごとに「代表課題とKPI → 最低スキーマ → 特徴量/モデル/評価 → ダッシュボード/運用 → PF雛形」の順でまとめます。
コードやクエリは、WordPressのコードハイライト(loos-hcb)に合わせた体裁でそのまま貼って使えます。
小売/EC:需要×在庫は“誤差管理”から
代表課題とKPI:需要予測(MAE/WAPE)、在庫最適化(欠品率/在庫回転)、プロモ効果(Lift/粗利)、顧客価値(RFM/CLV)
最低スキーマ(例)
sales(tx_id, tx_date, store_id, sku_id, qty, price, promo_flag)
sku(sku_id, category, brand, size)
store(store_id, area, format)
calendar(date, wday, holiday, campaign)
特徴量/モデルの勘所
ラグ・移動平均・季節・祝日・プロモ前後はまず効きます。モデルは軽量なツリー(LightGBM)や回帰で十分。安全在庫はμ+zσで欠品率を制御し、在庫閾値を意思決定に翻訳します。
評価と運用
MAE/WAPEで誤差管理、閾値で発注提案へ。週次ダッシュボードは「売上推移・欠品率・在庫日数」を1枚に。
SQL最小例(カレンダーで穴埋め)
SELECT c.date, s.store_id, sk.sku_id,
COALESCE(SUM(sa.qty),0) AS qty
FROM calendar c
CROSS JOIN store s
CROSS JOIN sku sk
LEFT JOIN sales sa
ON sa.tx_date=c.date
AND sa.store_id=s.store_id
AND sa.sku_id=sk.sku_id
WHERE c.date BETWEEN '2025-06-01' AND '2025-08-31'
GROUP BY 1,2,3;
PF雛形(需要予測)
- 指標:MAE/WAPE、在庫欠品率
- 成果翻訳:補充提案表(SKU×店舗×数量)と在庫日数の変化
- 構成:
features/
train.py
evaluate.py
reports/
dashboards/
tests/
[内部リンク:需要予測ミニプロジェクト:時系列基礎]/[内部リンク:可視化ベストプラクティス集]
広告/メディア:配信最適化は“確率×費用対効果”
代表課題とKPI:配信最適化(CPA/ROAS)、クリエイティブ評価(CTR/CVR/Lift)、アトリビューション、予算配分(MMM)
最低スキーマ(例)
impression(impr_id, date, campaign, adgroup, creative, device, cost)
click(click_id, impr_id, date)
conv(conv_id, date, value, user_id)
creative_meta(creative, type, copy)
特徴量/モデルの勘所
曜日/時間/デバイス/媒体の傾向を素直に学習。反応確率はロジスティックやツリーでOK、評価はPR-AUC。MMMの最小形は単回帰で十分な“入口”になります。
SQL最小例(日×媒体のROAS)
SELECT i.date, i.campaign,
SUM(c.value) / NULLIF(SUM(i.cost),0) AS roas,
SUM(i.cost) AS spend
FROM impression i
LEFT JOIN click k ON k.impr_id=i.impr_id
LEFT JOIN conv c ON c.date=i.date AND c.user_id IS NOT NULL
GROUP BY 1,2;
PF雛形(配信最適化)
- 指標:PR-AUC/ROC、CPA/ROAS
- 成果翻訳:閾値×入札の運用表、予算再配分案
- 構成:
notebooks/
model/
evaluate.py
mmm_baseline.py
dashboards/
[内部リンク:モデル評価]/[内部リンク:可視化入門]
製造:監視は“誤警報率×検出率”の設計から
代表課題とKPI:異常検知(誤警報率/検出率)、歩留まり(良品率/不良率)、予防保全(MTBF/停止時間)
最低スキーマ(例)
sensor(ts, line_id, machine_id, temp, vib, press)
lot(lot_id, start_ts, end_ts, result)
maintenance(machine_id, ts, work_type)
特徴量/モデルの勘所
滑動窓の統計(平均/分散/偏度)、変化点、SPC(管理図)をまず導入。モデルはIsolationForest/One-Class SVM/ロジスティックなど。
Python最小例(窓統計)
import pandas as pd
w = 60
df['temp_mean'] = df['temp'].rolling(w).mean()
df['temp_std'] = df['temp'].rolling(w).std()
PF雛形(異常検知)
- 指標:PR-AUC、Recall@誤警報率
- 成果翻訳:点検指示シート(時刻×機械×理由)と想定停止削減
- 構成:
etl/
features/
monitor/
alert_rules.yaml
tests/
[内部リンク:勤怠/売上の異常検知:実務で使う監視の考え方]
IT/SaaS:解約は“スコア×施策”で動かす
代表課題とKPI:解約予測(Churn/Retention)、オンボーディング(Aha moment到達率)、料金最適化(ARPU/LTV)
最低スキーマ(例)
events(user_id, ts, event, props)
subscription(user_id, plan, start_ts, cancel_ts)
account(industry, size, region)
特徴量/モデルの勘所
ファネル(D1/D7アクティブ、機能利用回数)、利用間隔、コーホートで利用パターンを捉える。モデルはロジスティック/ツリー、評価はPR-AUC/Lift。
SQL最小例(コーホート残存)
WITH first AS (
SELECT user_id, MIN(DATE(ts)) AS cohort
FROM events GROUP BY 1
), daily AS (
SELECT e.user_id, DATE(e.ts) d, 1 AS active
FROM events e GROUP BY 1,2
)
SELECT f.cohort, d.d, SUM(active) AS act
FROM first f JOIN daily d USING(user_id)
GROUP BY 1,2;
PF雛形(解約予測)
- 指標:PR-AUC、Recall@閾値、Lift@Top10%
- 成果翻訳:スコア>0.8→CS架電の対象件数/期待CV
- 構成:
features/
train.py
evaluate.py
cohort.ipynb
dashboards/
[内部リンク:ポートフォリオ完全ガイド]/[内部リンク:面接でよく聞かれる質問50選と回答例(Python/DS職)]
共通:伝わるダッシュボードは“結論1行+図3点”
- 結論1行:今週は需要が+8%/欠品-1.2pt。
- 図3点:推移(折れ線)/分解(棒)/構成比(100%積上げ)。
- 注釈:異常点に矢印+メモ、基準線で判断を速く。
- 打ち手:在庫閾値+1日/予算を媒体Bへ+15%/解約スコア>0.8に架電。
→ 詳細は[内部リンク:可視化ベストプラクティス集(図選択・注釈・配色の実務)]/[内部リンク:データレポート納品の型]
求人票の“翻訳表”:業界語→スキル/成果
業界語 | 裏にある仕事 | 書き換え(職務経歴書) |
---|---|---|
WAPE/MAE | 需要予測の誤差管理 | 「MAE 12.4で在庫欠品率-0.8ptを実現」 |
ROAS/CPA | 予算配分と配信最適化 | 「PR-AUC 0.73、閾値×入札でCPA-12%」 |
SPC/MTBF | 製造の監視・保全 | 「誤警報5%でRecall0.65、停止時間-7%」 |
Retention/LTV | SaaSの解約防止 | 「Lift@Top10% 2.1で架電対象を集中」 |
“伴走レビュー”で業界PFを仕上げよう
厳しめのレビューほど、PFは現場語になります。まずは無料カウンセリング/体験で、課題サンプルとレビュー基準に触れてみましょう。
TechAcademy データサイエンスコース(受講料:174,600円~ ※更に割引あり)

株式会社キカガク AI人材長期育成コース(受講料:237,600円~)

状況別の“勝ち筋”
- 社会人(転職):現職に近い1業界を選び、KPIの言語でPF化 → [内部リンク:未経験転職の障壁を乗り越える:職務経歴書の書き方と実例]
- 副業目的:小売/広告のレポート自動化を商品化。単価×稼働で回収 → [内部リンク:Python副業の始め方]/[内部リンク:データレポート納品の型]
- 在宅中心:SaaS解約PFはローカル実行で完結しやすく、非同期レビューと相性◎ → [内部リンク:主婦/夫に優しいスクール比較]
今日やること(60分)
- 業界を1つ選ぶ(現職に近いほど有利)。
- 上のスキーマを雛形に疑似データを作る(100日/1,000レコード程度)。
- 指標を決める(小売=MAE、広告=PR-AUC/CPA、製造=Recall@誤警報、SaaS=PR-AUC/Lift)。
- README雛形(目的/KPI/再現手順/結果/打ち手)を用意し、
Makefile
/pytest
/CIまで作る。 - ダッシュボードに図3点と結論1行+打ち手を書く。
README雛形(コピペ可)
# 業界別PF(小売:需要予測)
## 目的/KPI
- 欠品率の低減、発注提案の自動化(MAE/WAPE)
## データ/スキーマ
- sales/sku/store/calendar(疑似データ生成スクリプト同梱)
## 再現手順
- `python -m pip install -r requirements.txt`
- `make all`(features→train→evaluate→report)
## 結果/打ち手
- MAE 12.4、補充提案で欠品率-0.8pt(試算)
## 限界/次の一手
- プロモ影響の分離/店舗クラスタ
この記事から次に読むべきもの
-
-
【テンプレ&実例】未経験からでも通る職務経歴書:実務再現PF×定量化×ATS最適化
「未経験からデータ職に応募しても通らない…何を直せばいい?」 結論:履歴書でポテンシャル、職務経歴書で実務の再現性を示すのが王道です。 本記事は、採用側/伴走側の両視点(筆者:現役DS10年)から、職 ...
-
-
面接でよく聞かれる質問50選と回答例(Python/DS職)|業務再現×指標×運用で刺さる答え方テンプレ
「精度は高いのに、面接で落ちるのはなぜ?」 採用側は“動く再現性”と“意思決定に繋げる説明”を見ています。 本記事では、現場10年の評価者目線で、カテゴリ別50問の想定質問と回答テンプレ(PREP/S ...
-
-
【保存版】データ職のポートフォリオ完全ガイド|再現性・評価・LTまで
ポートフォリオって「作ったものの置き場」でしょ? いいえ。採用側が見たいのは「意思決定に効いた証拠」と「再現性」です。 本ガイドは、未経験〜初学者が週10時間×4〜6週で、テーマ選定→要件定義→データ ...
-
-
コピペで動く需要予測|ARIMA×LightGBMでベースライン→運用まで
現場でちゃんと当たる需要予測って、どこから始めればいい? ベースライン→検証→運用まで、一気通貫で進める“型”で解説します。 この記事は、ARIMAとLightGBMを使った需要予測ミニプロジェクトの ...
-
-
勤怠・売上の異常検知は設計が9割|SLOとRules→Stats→MLで“静かな監視”を作る
異常検知は「驚きを、早く・静かに・正しく知らせる」ための仕組みづくり。 本記事は、勤怠/売上データの監視を“現場で使える形”に落とし込むための設計と実装テンプレをまとめました。結論から言うと、SLOを ...
-
-
【保存版】データレポート納品の型:要件定義→ETL→検証→可視化→Excel/PDF→引き継ぎまで、失注しないワークフロー完全版
“いい分析”より“伝わる納品”。副業や実務で評価されるのは、意思決定に効く1枚と再現できるパッケージを期限通り出せること。 本記事は、未経験〜初学者が週10時間×2〜3週で、要件定義→データ受領→ET ...
最近のコメント