
「精度は高いのに、面接で落ちるのはなぜ?」
採用側は“動く再現性”と“意思決定に繋げる説明”を見ています。
本記事では、現場10年の評価者目線で、カテゴリ別50問の想定質問と回答テンプレ(PREP/STAR)を配布します。さらに落とし穴/追い質問、10分LT台本、ライブコーディング小問、模擬面接採点表まで“そのまま使える”形に整えました。
この記事で身につくこと
- 課題定義→KPI翻訳→意思決定まで一気通貫で語る型
- 再現性(README/Makefile/pytest/CI)を口頭で示す方法
- 追い質問に耐える指標・閾値・運用の言い回し
関連記事:
>>【完全ガイド】データサイエンティストの仕事内容と必要スキル・年収
>>【テンプレ&実例】未経験からでも通る職務経歴書:実務再現PF×定量化×ATS最適化
>>【保存版】データ職のポートフォリオ完全ガイド|再現性・評価・LTまで
>>スクール卒業後の実力はGitHubで判定|評価軸と30分チェック
>>データ可視化レポート納品の型:Tableau/Matplotlib|“図3点+結論1行+運用”で伝わる・続く・刺さる
>>【保存版】Git/GitHub入門:バージョン管理・ブランチ戦略・レビュー・自動化を“実務の型”で最短習得
>>【コピペOK】pytestで“壊れないPython”を作る12ステップ
面接が通らない“3つの典型”
データサイエンス職の面接はアルゴリズムの暗記テストではありません。評価者が見ているのは次の3点です。
- 精度自慢で終わる:PR-AUCやMAEなどが事業KPIに翻訳されていない。
- 再現できない:README/Makefile/pytestがなく動く証跡が無い。
- 抽象論:課題定義やデータ制約が具体化されていない。
解決策:業務再現ポートフォリオを核に、指標の意味→運用設計まで語る。以降の50問で“そのまま使える言い回し”を用意しました。
評価者目線のチェックポイント(筆者のバックグラウンド)
筆者(ふみと)は大手企業でDS/マーケ科学職10年。採用面接・コーディング試験・LTレビューを多数担当。通過する候補者は、(1) 結論→根拠→具体例の順で簡潔、(2) 再現性(Git/CI/テスト)を口頭で示せる、(3) 意思決定の翻訳がある。本記事はそれをテンプレ化しています。
カテゴリ別50問+回答テンプレ(PREP/STAR)
1. 課題定義・ビジネス(Q1–Q8)
- Q1. どんなビジネス課題をデータで解いた?
A(STAR):S: 解約率上昇→T: 高リスク抽出→A: PR-AUCを主指標に特徴量設計・CV→R: PR-AUC0.78、閾値0.7でRecall0.60、CS架電集中でCV+1.2pt。
追い質問:なぜPR-AUC?→不均衡データでのPrecision-Recallを重視。 - Q2. KPIをどう選んだ?
A(PREP):P: 意思決定に直結する指標だけ残す。R: CVRやMAEなど費用関数に近い指標を採用。E: 解約ではPR-AUC/Lift、需要予測ではMAE。P: 目的に合わない精度自慢は捨てる。 - Q3. データが汚い/足りないときの方針は?
A:業務影響の大きい欠損から優先、データ辞書で定義整備、ダミー/外挿は意思決定に影響が小さい範囲のみ。不足は実験設計or代替指標で補う。 - Q4. 施策設計の経験は?
A:閾値×施策の表を作り、在庫/架電/割引の上限で規模・費用を計算して意思決定に翻訳。 - Q5. A/Bテストの落とし穴は?
A:サンプルサイズ/検定力、同時施策の干渉、早期停止、季節性。 - Q6. POCsで止まらない工夫?
A:One-pager(課題定義)→再現PF→施策表→監視指標まで初回提案に含める。 - Q7. ビジネス側と噛み合わない時?
A:図1枚・結論1行で合意形成→条件を固定して実験→結果で次へ。 - Q8. リソースが足りない時の優先順位?
A:Time-to-Value最短の施策から。ベースライン>高度化。
2. データ・前処理(Q9–Q14)
- Q9. 欠損値の扱いは?
A:MNAR/MAR/MCARで切分け、業務影響の高い列から対処。学習は単純代入+欠損フラグをまず試す。落とし穴:リークを生む目視補完。 - Q10. 外れ値の扱いは?
A:業務定義(返品/異常)で除外可否→ロバスト指標(中央値/IQR)→winsorize等。 - Q11. 時系列分割のCVは?
A:TimeSeriesSplitで未来情報のリーク防止。需要予測は過去→未来のみ。 - Q12. 特徴量作成の方針は?
A:ラグ/移動平均/曜日/月など運用で維持可能なものから。 - Q13. カテゴリ変数のエンコーディング?
A:高基数はtarget/leave-one-out、低基数はone-hot。 - Q14. データ辞書はどう書く?
A:列名/型/単位/欠損/由来/更新頻度をdocs/に。
3. モデル・評価(Q15–Q22)
- Q15. ROC-AUCとPR-AUCの違い?
A:不均衡データはPR-AUC。ROCは陰性の多さに影響されやすい。 - Q16. なぜMAE?RMSEとの使い分けは?
A:コスト関数に近い方。外れ値コストが線形ならMAE、二乗ならRMSE。 - Q17. 過学習の検出と対策?
A:学習/検証乖離、CV±std、学習曲線。対策は特徴量/正則化/データ増量。 - Q18. ハイパラ探索の方針?
A:Baseline→狭くGrid→広くRandom/Bayes。早停とCVログを残す。 - Q19. 閾値の決め方?
A:費用行列で最適閾値を探索、在庫/架電上限の制約込み。 - Q20. モデル比較で見るもの?
A:KPI適合、CV±std、安定性、運用の簡易さ。 - Q21. 特徴量重要度の使い方?
A:Permutationでリーク判定、施策仮説の確認。 - Q22. 学習データと本番データのshift検知?
A:PSI/KS検定、モニタリングを設置。
4. 実装・再現性(Q23–Q30)
- Q23. コードの再現性をどう担保?
A:README
に目的/KPI/手順/結果、Makefile
で一発実行、pytest
最小、GitHub ActionsでCI。 - Q24. ノートブック運用の工夫?
A:nbstripoutで出力除去、mlflowやCSVで実験ログ。 - Q25. データサイズが大きいとき?
A:サンプル化/列削減→型最適化→分割処理→必要ならDask/Polars。 - Q26. モジュール分割の基準?
A:ETL/特徴量/学習/評価を関数/ファイルで分離。 - Q27. テストの対象は?
A:ETL整形、指標関数、閾値ロジック。I/Oはモック。 - Q28. 例外・ロギングの方針?
A:ユーザー向け/開発者向けを分け、再現手順と環境情報を記録。 - Q29. バージョン管理の運用?
A:Issue/PRテンプレ、レビュー頻度、コミット粒度(小さく)。 - Q30. デプロイなしの価値提供方法?
A:バッチ配信/レポート/Excel出力でも十分。Time-to-Value優先。
5. 可視化・説明(Q31–Q36)
- Q31. 伝わるグラフの条件?
A:図選択(棒/折れ線/100%積上げ)、注釈/基準線、2–3色+強調1色。 - Q32. 禁じ手は?
A:3D/過剰色/軸カット、目盛り詰め。 - Q33. ダッシュボード設計のコツ?
A:結論→指標→分解の3段。「開いて1分で分かる」。 - Q34. 非エンジニアへの説明方法?
A:One-pager(KPI/結果/打ち手/制約)で専門語を排除。 - Q35. モデルの限界をどう伝える?
A:仮定/データ制約/再現性を「次の一手」とセットで共有。 - Q36. 失敗事例の説明?
A:原因→学び→再現防止の順で具体に。
6. 倫理・法務・セキュリティ(Q37–Q40)
- Q37. 個人情報の扱い?
A:匿名化/疑似データ、最小権限、アクセスログ、再配布禁止。 - Q38. スクレイピングの適法性?
A:利用規約/robots.txt/API優先。保存/再配布の可否を確認。 - Q39. バイアス対策?
A:データ分布確認、公平性指標、監視で継続検証。 - Q40. 著作権の注意?
A:図表/ロゴの無断利用回避、出典明記。
7. 行動特性・カルチャーフィット(Q41–Q44)
- Q41. 直近の学び?
A:実務に効くテーマ(例:Permutation Importanceでリーク検知)。 - Q42. 詰まった時の動き方?
A:SLA 15分でエスカレーション→再現最小例を添えて相談。 - Q43. チームで価値を出した例?
A:PR/レビューでの合意形成、意思決定への接続を具体に。 - Q44. 希望年収の根拠?
A:市場レンジ+業務再現PFの価値(Time-to-Value短縮)。
8. ポートフォリオ・面接運用(Q45–Q50)
- Q45. PFの見どころは?
A:README1枚で目的→手順→結果→打ち手、CIバッジ、PR履歴。 - Q46. GitHubで気をつけている点?
A:個人情報コミット禁止、.gitignore
、Issue/PRテンプレ。 - Q47. ライブコーディングが不安
A:pandas/SQL/基本アルゴの最小問題を毎日15分で反復。 - Q48. 逆質問は?
A:成功の定義/KPI、レビュー頻度、意思決定フロー。 - Q49. 入社後90日の計画は?
A:Week1–2データ把握→30日ベースライン→60日A/B設計→90日運用安定。 - Q50. リモート環境でのコラボ?
A:非同期SLA、Issue/PR中心、デモ動画で共有。
筆者コラム(現場の実感)
面接で「最高スコア」を語る方は多いですが、閾値を動かした時の施策コストまで語れる方は少数。ここを1枚の表で示せると、その場で議論が“事業”になります。
無料カウンセリングで“面接直結”の伴走を
模擬面接/LT練習/PRレビューまで伴走してくれる環境は強いです。まずは無料カウンセリング/体験でレビュー基準と頻度を数字で確認しましょう。
TechAcademy データサイエンスコース(受講料:174,600円~ ※更に割引あり)

株式会社キカガク AI人材長期育成コース(受講料:237,600円~)

読者タイプ別の“押さえ所”
- 社会人(転職):課題定義→KPI翻訳→意思決定の導線を最重視。→ [内部リンク:データサイエンティストの仕事内容]
- 副業目的:レポート納品の型と単価根拠(品質運用)を語る。→ [内部リンク:データレポート納品の型]
- 主婦/夫(在宅):非同期SLAや夜間対応の有無を逆質問。→ [内部リンク:主婦/夫に優しいスクール比較]
面接準備パック(そのまま実施)
1) 10分LT台本テンプレ(コピペ可)
1. 結論(30秒):KPI/結果/打ち手を一番最初に
2. 背景(60秒):ビジネス課題と制約
3. データ(90秒):スキーマ/欠損/前処理の要点
4. モデル(150秒):指標・CV±std・過学習対策
5. 打ち手(90秒):閾値/在庫/価格など意思決定
6. 運用(90秒):バッチ・監視・再学習
7. 失敗と学び(60秒):次の一手
8. まとめ(30秒):採用後の貢献イメージ
2) ライブコーディング想定問題(pandas/SQL/scikit-learn)
pandas(結合・集計)
import pandas as pd
orders = pd.DataFrame({
'id':[1,2,3,4], 'cust':[10,10,11,12], 'amt':[100,200,150,50],
'dt':pd.to_datetime(['2025-01-01','2025-01-02','2025-01-02','2025-01-03'])
})
# 顧客ごとの月次売上
orders['ym'] = orders['dt'].dt.to_period('M')
print(orders.groupby(['cust','ym'])['amt'].sum().reset_index())
SQL(ウインドウ)
-- 月次の顧客売上と全体順位
SELECT cust, DATE_TRUNC('month', dt) AS ym,
SUM(amt) AS m_amt,
RANK() OVER(PARTITION BY DATE_TRUNC('month', dt) ORDER BY SUM(amt) DESC) AS rnk
FROM orders
GROUP BY cust, DATE_TRUNC('month', dt);
scikit-learn(CV)
from sklearn.model_selection import cross_val_score
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import make_scorer, average_precision_score
clf = LogisticRegression(max_iter=1000)
sc = make_scorer(average_precision_score, needs_proba=True)
scores = cross_val_score(clf, X, y, scoring=sc, cv=5)
print(scores.mean(), scores.std())
3) 逆質問テンプレ(コピペ可)
・本ポジションの成功は入社3/6/12ヶ月で何で測りますか?
・データチームのレビュー頻度/体制(PR/差し戻し基準)は?
・モデル運用の監視指標と、施策意思決定のフローは?
・リモート時の非同期SLA(一次/解決)は?
4) 模擬面接採点表(自宅用)
| 観点 | 配点 | メモ |
|---|---:|---|
| 課題定義→KPI翻訳 | 20 | 目的関数が業務KPIと整合 |
| データ/前処理 | 10 | 欠損/外れ値/リーク対策 |
| モデル/評価 | 15 | 指標選定とCV±std |
| 再現性/運用 | 15 | README/Makefile/pytest/CI |
| 可視化/説明 | 10 | 図1枚・注釈・基準線 |
| 施策/意思決定 | 15 | 閾値×施策の翻訳 |
| 倫理/法務 | 5 | PII/規約/公平性 |
| 行動特性 | 10 | エスカ/チーム連携 |
| **合計** | **100** | 60=合格、75=強い |
この記事から次に読むべきもの(内部リンク)
-
-
【テンプレ&実例】未経験からでも通る職務経歴書:実務再現PF×定量化×ATS最適化
「未経験からデータ職に応募しても通らない…何を直せばいい?」 結論:履歴書でポテンシャル、職務経歴書で実務の再現性を示すのが王道です。 本記事は、採用側/伴走側の両視点(筆者:現役DS10年)から、職 ...
-
-
【保存版】データ職のポートフォリオ完全ガイド|再現性・評価・LTまで
ポートフォリオって「作ったものの置き場」でしょ? いいえ。採用側が見たいのは「意思決定に効いた証拠」と「再現性」です。 本ガイドは、未経験〜初学者が週10時間×4〜6週で、テーマ選定→要件定義→データ ...
-
-
スクール卒業後の実力はGitHubで判定|評価軸と30分チェック
スクールって「卒業後の実力」をどう見極めればいい? 答え:卒業生のGitHubで判断できます。完成品よりも、“再現性×運用×説明力”です。 結論:GitHubで“実務力”はほぼ判定できる 見るべき3要 ...
-
-
【保存版】モデル評価:指標の選び方・交差検証・閾値最適化・ビジネス接続を“実務の型”で解説
精度が上がらない原因の多くは「評価設計の誤り」にあります。評価とは「何点取れたか」ではなく、意思決定に耐えるかを測る営み。この記事では、回帰/分類/ランキングの指標の選び方、交差検証の正しい使い分け、 ...
-
-
データ可視化レポート納品の型:Tableau/Matplotlib|“図3点+結論1行+運用”で伝わる・続く・刺さる
結論:レポートは「データ→図」ではなく「意思決定→図」の順で設計します。最短で伝わり、運用で続く“型”は、(1) 結論1行、(2) 図3点(推移・分解・構成)、(3) 打ち手(閾値/費用対効果)、(4 ...
最近のコメント