
スクールって「卒業後の実力」をどう見極めればいい?
答え:卒業生のGitHubで判断できます。完成品よりも、“再現性×運用×説明力”です。
結論:GitHubで“実務力”はほぼ判定できる
見るべき3要素は以下のとおり。
- 再現性:環境・データ・手順が整い、README通りに動く
- 運用:テスト・CI・Issue/PRが回り、壊れにくい
- 説明力:目的/指標/意思決定まで一枚で伝わる
本記事では100点満点ルーブリック、30分チェックリスト、テンプレ(README/Makefile/CI)、相談時の質問集まで配布します。
関連記事:
>>【保存版】データ職のポートフォリオ完全ガイド|再現性・評価・LTまで
>>【保存版】Git/GitHub入門:バージョン管理・ブランチ戦略・レビュー・自動化を“実務の型”で最短習得
>>【コピペOK】pytestで“壊れないPython”を作る12ステップ
>>【保存版】モデル評価:指標の選び方・交差検証・閾値最適化・ビジネス接続を“実務の型”で解説
>>【保存版】ハイパーパラメータ入門:Grid/Random/Optunaの実務チューニング完全ガイド
>>コピペで回るレポート納品|Jupyter→PDF/HTML→共有の自動化テンプレ
>>【保存版】可視化入門:Matplotlib/Plotlyの使い分けと“伝わるグラフ設計”10ステップ
現場視点:評価が高いのは「壊れにくさ」と「明快さ」
筆者(ふみと)は大手企業でデータ/マーケティングサイエンティストを10年。採用側として百件超のGitHubをレビューしてきました。高精度モデルよりも、再現できて、テストが回り、意思決定に繋がるリポジトリが強いです。
実体験:ある応募者はAUCが高いのにREADMEにデータ取得手順がなく、再現で詰まりました。一方、別の応募者は精度は普通でも、Makefile
・pytest
・CI
が揃い、意思決定(閾値と運用案)まで明記。後者を即面接に進めました。
保存版ルーブリック(100点満点)
合計:100点(60点以上=実務入門可、75点以上=即戦力候補)
観点 | 配点 | 評価基準(要件) |
---|---|---|
1. 再現性:環境 | 10 | README に実行手順/依存、requirements.txt またはpyproject.toml 。Dockerfile があれば満点 |
2. 再現性:データ | 10 | サンプル/擬似データ or 取得スクリプト、データ辞書(列名/単位/欠損)をdocs/ に |
3. 再現性:手順 | 10 | Makefile やmake all で上から通る、seed 固定・乱数再現 |
4. 運用:テスト | 10 | pytest 最小セット(ETL/特徴量/指標)。pytest -q が通る |
5. 運用:CI | 10 | GitHub Actions等でテスト自動化。ノートブック出力クリア(nbconvert/nbstripout) |
6. 運用:Issue/PR | 10 | Issue/PRテンプレ、レビュー履歴、差し戻し・議論のログ |
7. 説明力:README | 10 | 目的/KPI/データ/手順/結果/限界/次アクションを1枚に要約、図1枚+根拠リンク |
8. 説明力:可視化 | 5 | 図は2–3色+強調1色、注釈/基準線、PNG 200dpi+ |
9. モデル評価 | 10 | 適切な指標(分類:PR-AUC等/回帰:MAE等)、CV±std、過学習検証 |
10. 実務接続 | 10 | 意思決定(閾値/在庫/価格等)への翻訳、次の打ち手が明記 |
合計 | 100 | 60点=合格、75点=強い |
30分チェックリスト(コマンド付き)
# 1) 依存とテスト
cat requirements.txt || cat pyproject.toml
pytest -q
# 2) CIの有無(GitHubの場合)
cat .github/workflows/\*.yml
# 3) 実行手順(Makefile推奨)
make -n all || grep -n "Usage" README.md
# 4) 変更履歴の粒度
git log --oneline | head -n 20
# 5) 行数と構成
pip install cloc && cloc .
見るポイント:巨大な1コミット、venv
や.ipynb_checkpoints
をgit管理している、READMEに再現手順がない——は大きく減点です。
スクール選びのコツ:レビューが厳しいほど伸びる
差し戻し事例やPRテンプレを公開/共有できるスクールは、実務に近いレビューを運用している可能性が高いです。まずは無料カウンセリングで、GitHubのサンプル課題を見せてもらいましょう。
TechAcademy データサイエンスコース(受講料:174,600円~ ※更に割引あり)

株式会社キカガク AI人材長期育成コース(受講料:237,600円~)

読者タイプ別:チェック観点の優先度
- 社会人(転職):CI/テスト/PRの運用と意思決定への翻訳を重視。→ [内部リンク:単体テストpytest入門] [内部リンク:モデル評価]
- 副業目的(稼ぎたい):レポート納品と自動化(Makefile/スケジューラ)。→ [内部リンク:データレポート納品の型]
- 在宅中心:READMEの明快さと短時間で再現できるか。録画/図の分かりやすさも加点。
判定のしかた(テンプレ)
タイムボックス:30分
- README(5分):目的/KPI/データ/再現手順/結果/限界/次アクション
- 実行(10分):
make all
orpython -m pip install -r requirements.txt
→pytest -q
- 構成/変更(5分):
tree -L 2
とgit log --oneline
- CI/PR(5分):
.github/workflows
とPR履歴 - 採点(5分):上の表に点を入れて合計。合格/要改善を判定
評価フォーム(コピペ可)
# GitHub評価フォーム
- リポジトリ名:
- URL:
- 目的/KPI:
- 合計点:__/100(合格≥60, 強い≥75)
## メモ
- 強み:
- 弱み:
- 改善提案(3点):
テンプレ集:そのまま使える“良い型”
ディレクトリ構成
project/
├─ README.md
├─ pyproject.toml or requirements.txt
├─ data/ (raw/processed/README)
├─ src/
│ ├─ features.py
│ ├─ train.py
│ └─ evaluate.py
├─ models/ (artifacts with metadata)
├─ tests/
│ ├─ test_features.py
│ └─ test_metrics.py
├─ notebooks/
├─ Makefile
└─ .github/workflows/ci.yml
README.md テンプレ
# プロジェクト名
## 目的とKPI
- 例:解約確率の予測(KPI: PR-AUC)
## データ
- 取得方法/サンプル/データ辞書(列名・単位・欠損)
## 再現手順
```bash
python -m pip install -r requirements.txt
make all # or python src/train.py
pytest -q
```
## 結果
- 指標(CV±std)、重要特徴、図1枚(注釈/基準線)
## 意思決定(打ち手)
- 閾値/在庫/コンタクト戦略の提案
## 限界と次の一手
- 仮定/データ制約/改善案
Makefile テンプレ
.PHONY: all init data features train eval test clean
all: init data features train eval test
init:
python -m pip install -r requirements.txt
echo "seed=42" > .env
data:
python src/download\_data.py
features:
python src/features.py
train:
python src/train.py
eval:
python src/evaluate.py
test:
pytest -q
clean:
rm -rf models/*.pkl data/processed/*
GitHub Actions(CI)テンプレ
name: ci
on: [push, pull_request]
jobs:
test:
runs-on: ubuntu-latest
steps:
- uses: actions/checkout@v4
- uses: actions/setup-python@v5
with: {python-version: '3.11'}
- run: python -m pip install -r requirements.txt
- run: pytest -q
pytest 最小例
from src.evaluate import pr_auc
def test\_pr\_auc\_range():
s = pr\_auc(\[0,1,1],\[0.1,0.8,0.6])
assert 0.0 <= s <= 1.0
アンチパターン(減点リスト)
- 巨大1コミット(初回pushで全ファイル)/コミットメッセージが
"fix"
のみ data/
に生データ(個人情報)をコミットvenv/
や.ipynb_checkpoints/
がgit管理下- 評価が正解率のみ、CVや±stdが無い
- 図が3D/グラデ/色だらけで単位や基準線が無い([内部リンク:可視化ベストプラクティス集])
相談時に使える質問テンプレ(コピペ可)
- 卒業生のサンプルGitHub(PR/レビュー履歴付き)を見せられますか?
- 課題でpytestとCIは必須ですか?差し戻し基準は?
- READMEの要件(目的/KPI/手順/結果/打ち手)は定義されていますか?
- データの取り扱い(疑似データ/取得スクリプト)のルールは?
- Issue/PRテンプレとレビュー頻度は?
この記事から次に読むべきもの(内部リンク)
-
-
【保存版】データ職のポートフォリオ完全ガイド|再現性・評価・LTまで
ポートフォリオって「作ったものの置き場」でしょ? いいえ。採用側が見たいのは「意思決定に効いた証拠」と「再現性」です。 本ガイドは、未経験〜初学者が週10時間×4〜6週で、テーマ選定→要件定義→データ ...
-
-
【保存版】Git/GitHub入門:バージョン管理・ブランチ戦略・レビュー・自動化を“実務の型”で最短習得
「分析やノートブックは作れるけど、壊れない運用の“型”がない…」 「final_v3_fix2_LAST.xlsx地獄から抜け出して、レビューと自動化まで一気通貫で回したい!」 この記事では、未経験〜 ...
-
-
【コピペOK】pytestで“壊れないPython”を作る12ステップ
「昨日は動いてたのに、今日は壊れた…」 データ分析やETL、機械学習のコードで多発するこの悲劇。実は“テスト不在”が9割です。 本記事は、pytestで“壊れないPython”を作るための実務ガイド。 ...
-
-
【保存版】モデル評価:指標の選び方・交差検証・閾値最適化・ビジネス接続を“実務の型”で解説
精度が上がらない原因の多くは「評価設計の誤り」にあります。評価とは「何点取れたか」ではなく、意思決定に耐えるかを測る営み。この記事では、回帰/分類/ランキングの指標の選び方、交差検証の正しい使い分け、 ...
-
-
コピペで回るレポート納品|Jupyter→PDF/HTML→共有の自動化テンプレ
毎週のレポート納品、朝にバタつきませんか? コードや図表は作ったのに、PDF化や共有で崩れる…。その“揺らぎ”を今日で終わらせましょう。 分析の価値は、最後の“納品物”で決まります。本記事では、Jup ...
最近のコメント