
「精度は高いのに、面接で落ちるのはなぜ?」
採用側は“動く再現性”と“意思決定に繋げる説明”を見ています。
本記事では、採用側(評価者)としての実務経験をもとに、カテゴリ別50問の想定質問と**回答テンプレ(PREP/STAR)をまとめました。
さらに、落とし穴と追い質問、10分LT台本、ライブコーディングの小問、模擬面接採点表まで一式を掲載。
「そのまま口に出せる」**実務直結の言い回しに整えています。
この記事で身につくこと
- 課題定義 → KPI翻訳 → 意思決定を一気通貫で語る型が身につく
- 再現性(README/Makefile/pytest/CI)を口頭で提示する要点がわかる
- 追い質問に耐える指標・閾値・運用の言い回しをそのまま流用できる
先に結論:「精度の自慢」ではなく「意思決定の台に載る話」をする。
関連記事:
>>【完全ガイド】データサイエンティストの仕事内容と必要スキル・年収
>>【テンプレ&実例】未経験からでも通る職務経歴書:実務再現PF×定量化×ATS最適化
>>【保存版】データ職のポートフォリオ完全ガイド|再現性・評価・LTまで
>>スクール卒業後の実力はGitHubで判定|評価軸と30分チェック
>>データ可視化レポート納品の型:Tableau/Matplotlib|“図3点+結論1行+運用”で伝わる・続く・刺さる
>>【保存版】Git/GitHub入門:バージョン管理・ブランチ戦略・レビュー・自動化を“実務の型”で最短習得
>>【コピペOK】pytestで“壊れないPython”を作る12ステップ
面接が通らない“3つの典型”と打ち手(要約)
データサイエンス職の面接はアルゴリズムの暗記テストではありません。評価者が見ているのは次の3点です。
- 精度自慢で終わる:PR-AUCやMAEなどが事業KPIに翻訳されていない。
- 再現できない:README/Makefile/pytestがなく動く証跡が無い。
- 抽象論:課題定義やデータ制約が具体化されていない。
解決策:業務再現ポートフォリオを核に、指標の意味→運用設計まで語る。
以降の50問で“そのまま使える言い回し”を用意しました。
評価者目線のチェックポイント(筆者のバックグラウンド)
筆者(ふみと)は大手企業でDS/マーケ科学職10年。採用面接・コーディング試験・LTレビューを多数担当。
通過する候補者は、(1) 結論→根拠→具体例の順で簡潔、(2) 再現性(Git/CI/テスト)を口頭で示せる、(3) 意思決定の翻訳がある。本記事はそれをテンプレ化しています。
カテゴリ別50問+回答テンプレ(PREP/STAR)
使い方:各設問はそのまま音読できる分量に調整。追い質問と落とし穴も併記。
1. 課題定義・ビジネス(Q1–Q8)
- Q1. どんなビジネス課題をデータで解いた?
A(STAR):
- S(状況):解約率が上昇
- T(課題):高リスク顧客を抽出
- A(行動):PR-AUC を主指標に特徴量設計/時系列CVを実施
- R(結果):PR-AUC 0.78。閾値0.7で Recall 0.60。CS架電集中によりCV +1.2pt
追い質問:「なぜ PR-AUC?」→ 不均衡データでは Precision–Recall を重視するため。 - Q2. KPIはどう選定した?(PREP)
P:意思決定に直結する指標を採用する。
R:CVR/MAE など 費用関数に近い指標を選ぶ。
E:解約予測では PR-AUC/Lift、需要予測では MAE。
P:目的に合わない精度自慢は捨てる。 - Q3. データが汚い/足りないとき?
A:業務影響の大きい欠損から優先。データ辞書で定義を整理。ダミー/外挿は意思決定影響が小さい範囲のみ。不足は実験設計や代替指標で補完。 - Q4. 施策設計の経験は?
A:閾値 × 施策の表を作り、在庫/架電/割引の上限から規模と費用を算出→意思決定に翻訳。 - Q5. A/Bテストの落とし穴?
A:サンプルサイズ/検定力、同時施策の干渉、早期停止、季節性。 - Q6. POC止まりを回避した工夫?
A:One‑pager(課題定義)→ 再現PF → 施策表 → 監視指標まで初回提案に含める。 - Q7. ビジネス側と噛み合わない時?
A:図1枚+結論1行で合意形成 → 条件を固定して小実験 → 結果で次へ。 - Q8. リソースが足りない時の優先順位?
A:Time‑to‑Value 最短の施策から。ベースライン > 高度化。
2. データ・前処理(Q9–Q14)
- Q9. 欠損値の扱いは?
A:MNAR/MAR/MCARで切分け、業務影響の高い列から対処。
学習は単純代入+欠損フラグをまず試す。
落とし穴:リークを生む目視補完。 - Q10. 外れ値の扱いは?
A:業務定義(返品/異常)で除外可否→ロバスト指標(中央値/IQR)→winsorize等。 - Q11. 時系列分割のCVは?
A:TimeSeriesSplitで未来情報のリーク防止。需要予測は過去→未来のみ。 - Q12. 特徴量作成の方針は?
A:ラグ/移動平均/曜日/月など運用で維持可能なものから。 - Q13. カテゴリ変数のエンコーディング?
A:高基数はtarget/leave-one-out、低基数はone-hot。 - Q14. データ辞書はどう書く?
A:列名/型/単位/欠損/由来/更新頻度をdocs/に。
3. モデル・評価(Q15–Q22)
- Q15. ROC-AUCとPR-AUCの違い?
A:不均衡データはPR-AUC。ROCは陰性の多さに影響されやすい。 - Q16. なぜMAE?RMSEとの使い分けは?
A:コスト関数に近い方。外れ値コストが線形ならMAE、二乗ならRMSE。 - Q17. 過学習の検出と対策?
A:学習/検証乖離、CV±std、学習曲線。対策は特徴量/正則化/データ増量。 - Q18. ハイパラ探索の方針?
A:Baseline→狭くGrid→広くRandom/Bayes。早停とCVログを残す。 - Q19. 閾値の決め方?
A:費用行列で最適閾値を探索、在庫/架電上限の制約込み。 - Q20. モデル比較で見るもの?
A:KPI適合、CV±std、安定性、運用の簡易さ。 - Q21. 特徴量重要度の使い方?
A:Permutationでリーク判定、施策仮説の確認。 - Q22. 学習データと本番データのshift検知?
A:PSI/KS検定、モニタリングを設置。
4. 実装・再現性(Q23–Q30)
- Q23. コードの再現性をどう担保?
A:READMEに目的/KPI/手順/結果、Makefileで一発実行、pytest最小、GitHub ActionsでCI。 - Q24. ノートブック運用の工夫?
A:nbstripoutで出力除去、mlflowやCSVで実験ログ。 - Q25. データサイズが大きいとき?
A:サンプル化/列削減→型最適化→分割処理→必要ならDask/Polars。 - Q26. モジュール分割の基準?
A:ETL/特徴量/学習/評価を関数/ファイルで分離。 - Q27. テストの対象は?
A:ETL整形、指標関数、閾値ロジック。I/Oはモック。 - Q28. 例外・ロギングの方針?
A:ユーザー向け/開発者向けを分け、再現手順と環境情報を記録。 - Q29. バージョン管理の運用?
A:Issue/PRテンプレ、レビュー頻度、コミット粒度(小さく)。 - Q30. デプロイなしの価値提供方法?
A:バッチ配信/レポート/Excel出力でも十分。Time-to-Value優先。
5. 可視化・説明(Q31–Q36)
- Q31. 伝わるグラフの条件?
A:適切な図選択(棒/折れ線/100%積み上げ)、注釈/基準線、2–3色+強調1色。 - Q32. 禁じ手は?
A:3D/過剰色/軸カット、目盛り詰め。 - Q33. ダッシュボード設計のコツ?
A:結論 → 指標 → 分解の3段構成。「開いて1分で分かる」を目標に。 - Q34. 非エンジニアへの説明方法?
A:One‑pager(KPI/結果/打ち手/制約)で専門語を排除。 - Q35. モデルの限界をどう伝える?
A:仮定/データ制約/再現性を「次の一手」とセットで共有。 - Q36. 失敗事例の説明?
A:原因→学び→再現防止の順で具体に。
6. 倫理・法務・セキュリティ(Q37–Q40)
- Q37. 個人情報の扱い?
A:匿名化/疑似データ、最小権限、アクセスログ、再配布禁止。 - Q38. スクレイピングの適法性?
A:利用規約/robots.txt/API優先。保存/再配布の可否を確認。 - Q39. バイアス対策?
A:データ分布確認、公平性指標、監視で継続検証。 - Q40. 著作権の注意?
A:図表/ロゴの無断利用回避、出典明記。
7. 行動特性・カルチャーフィット(Q41–Q44)
- Q41. 直近の学び?
A:実務に効くテーマ(例:Permutation Importanceでリーク検知)。 - Q42. 詰まった時の動き方?
A:SLA 15分でエスカレーション→再現最小例を添えて相談。 - Q43. チームで価値を出した例?
A:PR/レビューでの合意形成、意思決定への接続を具体に。 - Q44. 希望年収の根拠?
A:市場レンジ+業務再現PFの価値(Time-to-Value短縮)。
8. ポートフォリオ・面接運用(Q45–Q50)
- Q45. PFの見どころは?
A:README1枚で目的→手順→結果→打ち手、CIバッジ、PR履歴。 - Q46. GitHubで気をつけている点?
A:個人情報コミット禁止、.gitignore、Issue/PRテンプレ。 - Q47. ライブコーディングが不安
A:pandas/SQL/基本アルゴの最小問題を毎日15分で反復。 - Q48. 逆質問は?
A:成功の定義/KPI、レビュー頻度、意思決定フロー。 - Q49. 入社後90日の計画は?
A:Week1–2データ把握→30日ベースライン→60日A/B設計→90日運用安定。 - Q50. リモート環境でのコラボ?
A:非同期SLA、Issue/PR中心、デモ動画で共有。
筆者コラム(現場の実感)
面接で「最高スコア」を語る方は多いですが、閾値を動かした時の施策コストまで語れる方は少数。
ここを1枚の表で示せると、その場で議論が“事業”になります。
無料カウンセリングで“面接直結”の伴走を
模擬面接/LT練習/PRレビューまで伴走してくれる環境は強いです。まずは無料カウンセリング/体験でレビュー基準と頻度を数字で確認しましょう。
TechAcademy データサイエンスコース(受講料:174,600円~ ※更に割引あり)

株式会社キカガク AI人材長期育成コース(受講料:237,600円~)

読者タイプ別の“押さえ所”
- 社会人(転職):課題定義 → KPI翻訳 → 意思決定の導線を最重視。
- 副業目的:レポート納品の型と**単価の根拠(品質運用)**を語る。
- 主婦/夫(在宅):非同期SLAや夜間対応の有無を逆質問。
面接準備パック(そのまま実施)
1) 10分LT台本テンプレ(コピペ可)
1. 結論(30秒):KPI/結果/打ち手を一番最初に
2. 背景(60秒):ビジネス課題と制約
3. データ(90秒):スキーマ/欠損/前処理の要点
4. モデル(150秒):指標・CV±std・過学習対策
5. 打ち手(90秒):閾値/在庫/価格など意思決定
6. 運用(90秒):バッチ・監視・再学習
7. 失敗と学び(60秒):次の一手
8. まとめ(30秒):採用後の貢献イメージ2) ライブコーディング想定問題(pandas/SQL/scikit-learn)
pandas(結合・集計:顧客ごとの月次売上を出す)
import pandas as pd
# サンプルの受注データ
orders = pd.DataFrame({
'id': [1, 2, 3, 4],
'cust':[10, 10, 11, 12],
'amt': [100, 200, 150, 50],
'dt': pd.to_datetime(['2025-01-01','2025-01-02','2025-01-02','2025-01-03'])
})
# ① 日付列から「年月」を作る(集計キー)
orders['ym'] = orders['dt'].dt.to_period('M')
# ② 顧客×年月で売上合計を集計
monthly = orders.groupby(['cust', 'ym'], as_index=False)['amt'].sum()
print(monthly)ポイント:to_period('M') で月単位の期間に丸め、groupby で集計軸を明示。結果をテーブルで説明できるよう、変数 monthly に入れてから出力。
SQL(ウィンドウ関数:各月の顧客売上と順位)
-- 目的:同じ月内で顧客売上を集計し、月内順位を付ける
SELECT
cust,
DATE_TRUNC('month', dt) AS ym,
SUM(amt) AS m_amt,
RANK() OVER (
PARTITION BY DATE_TRUNC('month', dt)
ORDER BY SUM(amt) DESC
) AS rnk
FROM orders
GROUP BY cust, DATE_TRUNC('month', dt);ポイント:DATE_TRUNC('month', dt) を集計キーとPARTITIONで二度使うのが定石。**「月内での順位」と「月を跨ぐとリセット」**を面接で口頭説明。
scikit‑learn(交差検証:平均適合率で評価)
from sklearn.model_selection import cross_val_score
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import make_scorer, average_precision_score
# 目的:不均衡データを average_precision(= PR-AUC)で評価
clf = LogisticRegression(max_iter=1000)
sc = make_scorer(average_precision_score, needs_proba=True)
# K=5 のCVで平均とぶれ(標準偏差)を確認
scores = cross_val_score(clf, X, y, scoring=sc, cv=5)
print(scores.mean(), scores.std())ポイント:不均衡データでは ROC より PR-AUC(average_precision)。平均±標準偏差で安定性まで説明できると強い。
3) 逆質問テンプレ(コピペ可)
・本ポジションの成功は入社3/6/12ヶ月で何で測りますか?
・データチームのレビュー頻度/体制(PR の差し戻し基準)は?
・モデル運用の監視指標と、施策意思決定のフローは?
・リモート時の非同期SLA(一次対応/解決までの目安)は?4) 模擬面接採点表(自宅用)
| 観点 | 配点 | メモ |
|---|---:|---|
| 課題定義→KPI翻訳 | 20 | 目的関数が業務KPIと整合 |
| データ/前処理 | 10 | 欠損/外れ値/リーク対策 |
| モデル/評価 | 15 | 指標選定とCV±std |
| 再現性/運用 | 15 | README/Makefile/pytest/CI |
| 可視化/説明 | 10 | 図1枚・注釈・基準線 |
| 施策/意思決定 | 15 | 閾値×施策の翻訳 |
| 倫理/法務 | 5 | PII/規約/公平性 |
| 行動特性 | 10 | エスカ/チーム連携 |
| **合計** | **100** | 60=合格、75=強い |さいごに
“精度を語る人”から“意思決定を進める人”へ。
面接は再現性と運用設計で差がつきます。今日の練習から、口に出す文章を本稿で固めましょう。
この記事から次に読むべきもの(内部リンク)
-
-
【テンプレ&実例】未経験からでも通る職務経歴書:実務再現PF×定量化×ATS最適化
「未経験からデータ職に応募しても通らない…何を直せばいい?」 結論:履歴書でポテンシャル、職務経歴書で実務の再現性を示すのが王道です。 本記事は、採用側/伴走側の両視点から、1枚/2枚テンプレ、ATS ...
-
-
【保存版】データ職のポートフォリオ完全ガイド|再現性・評価・LTまで
ポートフォリオって「作ったものの置き場」でしょ? いいえ。採用側が見たいのは「意思決定に効いた証拠」と「再現性」です。 本ガイドは、未経験〜初学者が週10時間×4〜6週で、テーマ選定→要件定義→データ ...
-
-
スクール卒業後の実力はGitHubで判定|評価軸と30分チェック
スクールって「卒業後の実力」をどう見極めればいい? 答え:卒業生のGitHubで判断できます。完成品よりも、“再現性×運用×説明力”です。 関連記事:>>【保存版】データ職のポートフォリオ ...
-
-
【保存版】モデル評価:指標の選び方・交差検証・閾値最適化・ビジネス接続を“実務の型”で解説
精度が上がらない原因の多くは「評価設計の誤り」にあります。 評価は「何点取れたか」を競うものではなく、意思決定に耐えうるか を検証する営みです。本記事は、回帰/分類/ランキングの 指標選定 → 交差検 ...
-
-
データ可視化レポート納品の型:Tableau/Matplotlib|“図3点+結論1行+運用”で伝わる・続く・刺さる
結論:レポートは「データ→図」ではなく「意思決定→図」の順で設計します。最短で伝わり、運用で“使い続けられる”型は次の4点です。 迷ったら「結論→推移→分解→構成→打ち手→運用」。これで会議は10分で ...
最近のコメント