
スクールって「卒業後の実力」をどう見極めればいい?
答え:卒業生のGitHubで判断できます。完成品よりも、“再現性×運用×説明力”です。
関連記事:
>>【保存版】データ職のポートフォリオ完全ガイド|再現性・評価・LTまで
>>【保存版】Git/GitHub入門:バージョン管理・ブランチ戦略・レビュー・自動化を“実務の型”で最短習得
>>【コピペOK】pytestで“壊れないPython”を作る12ステップ
>>【保存版】モデル評価:指標の選び方・交差検証・閾値最適化・ビジネス接続を“実務の型”で解説
>>【保存版】ハイパーパラメータ入門:Grid/Random/Optunaの実務チューニング完全ガイド
>>コピペで回るレポート納品|Jupyter→PDF/HTML→共有の自動化テンプレ
>>【保存版】可視化入門:Matplotlib/Plotlyの使い分けと“伝わるグラフ設計”10ステップ
なぜGitHubで判断できるのか(現場視点)
採用側が重視するのは「壊れない」「伝わる」こと。高い精度のモデルよりも、再現できて、テストが回り、意思決定に繋がるリポジトリが評価されます。
- 再現性:環境・データ・手順が整い、READMEどおりに動く
- 運用:テスト・CI・Issue/PRが回っており、壊れにくい
- 説明力:目的/指標/意思決定までを1枚で伝えられる
実例:AさんはAUCが高いのにデータ取得手順がREADMEに無く、再現で詰まりました。
Bさんは精度は普通でも Makefile・pytest・CI が揃い、意思決定(閾値や運用案)も明記。
Bさんを即面接に進行しました。
保存版ルーブリック(100点満点)
合計:100点(60点以上=実務入門可、75点以上=即戦力候補)
| 観点 | 配点 | 評価基準(要件) |
|---|---|---|
| 1. 再現性:環境 | 10 | READMEに実行手順/依存、requirements.txtまたはpyproject.toml。Dockerfileがあれば満点 |
| 2. 再現性:データ | 10 | サンプル/擬似データ or 取得スクリプト、データ辞書(列名/単位/欠損)をdocs/に |
| 3. 再現性:手順 | 10 | Makefileやmake allで上から通る、seed固定・乱数再現 |
| 4. 運用:テスト | 10 | pytest最小セット(ETL/特徴量/指標)。pytest -qが通る |
| 5. 運用:CI | 10 | GitHub Actions等でテスト自動化。ノートブック出力クリア(nbconvert/nbstripout) |
| 6. 運用:Issue/PR | 10 | Issue/PRテンプレ、レビュー履歴、差し戻し・議論のログ |
| 7. 説明力:README | 10 | 目的/KPI/データ/手順/結果/限界/次アクションを1枚に要約、図1枚+根拠リンク |
| 8. 説明力:可視化 | 5 | 図は2–3色+強調1色、注釈/基準線、PNG 200dpi+ |
| 9. モデル評価 | 10 | 適切な指標(分類:PR-AUC等/回帰:MAE等)、CV±std、過学習検証 |
| 10. 実務接続 | 10 | 意思決定(閾値/在庫/価格等)への翻訳、次の打ち手が明記 |
| 合計 | 100 | 60点=合格、75点=強い |
30分チェックリスト(コマンド付き)
目的:初見のリポジトリを30分で評価し、合否の目星をつける
1) 依存とテスト
# 依存関係の定義があるか
cat requirements.txt || cat pyproject.toml
# 単体テストが最小でも用意されているか
pytest -q
解説:依存が明記されていれば環境構築が速い。pytest -q が即時に通るなら、最低限の品質管理が回っています。
2) CI の有無(GitHubの場合)
#GitHub Actions のワークフロー定義
cat .github/workflows/*.yml
解説:プッシュ/PR時に自動でテストが走れば、壊れたコードが主分岐に混ざりにくい。
3) 実行手順(Makefile推奨)
# 主要ターゲットが並び、上から流せるか
make -n all || grep -n "Usage" README.md
解説:make -n は実行せずに流れだけ確認できます。READMEの「Usage」が明快なら、短時間再現が可能。
4) 変更履歴の粒度
git log --oneline | head -n 20
解説:巨大な1コミットや「fix」だけのメッセージは赤信号。小さく頻繁なコミットが健全です。
5) 行数と構成
pip install cloc && cloc .
解説:行数とディレクトリの偏りで保守しやすさが分かります。venv/ や .ipynb_checkpoints/ をgit管理していると減点。
減点例(よくある落とし穴):巨大1コミット/生データを data/ にコミット/venv/ を管理/正解率のみの評価/3Dグラフ多用+注釈なし
スクール選びのコツ:レビューが厳しいほど伸びる
差し戻し事例やPRテンプレを公開/共有できるスクールは、実務に近いレビューを運用している可能性が高いです。
まずは無料カウンセリングで、GitHubのサンプル課題を見せてもらいましょう。
TechAcademy データサイエンスコース(受講料:174,600円~ ※更に割引あり)

株式会社キカガク AI人材長期育成コース(受講料:237,600円~)

読者タイプ別:チェック観点の優先度
- 社会人(転職):CI/テスト/PRの運用と、意思決定への翻訳を重視。
- 副業目的(稼ぎたい):レポート納品の型と自動化(
Makefile/スケジューラ)。 - 在宅中心:READMEの明快さと、短時間で再現できるか。録画や図の分かりやすさも加点。
判定のしかた(タイムボックス:30分)
- README(5分):目的/KPI/データ/再現手順/結果/限界/次アクション
- 実行(10分):
make allorpython -m pip install -r requirements.txt→pytest -q - 構成/変更(5分):
tree -L 2とgit log --oneline - CI/PR(5分):
.github/workflowsとPR履歴 - 採点(5分):上の表に点を入れて合計。合格/要改善を判定
評価フォーム(コピペ可)
# GitHub評価フォーム
- リポジトリ名:
- URL:
- 目的/KPI:
- 合計点:__/100(合格≥60, 強い≥75)
## メモ
- 強み:
- 弱み:
- 改善提案(3点):テンプレ集:そのまま使える“良い型”
ディレクトリ構成
project/
├─ README.md
├─ pyproject.toml or requirements.txt
├─ data/ (raw/processed/README)
├─ src/
│ ├─ features.py
│ ├─ train.py
│ └─ evaluate.py
├─ models/ (artifacts with metadata)
├─ tests/
│ ├─ test_features.py
│ └─ test_metrics.py
├─ notebooks/
├─ Makefile
└─ .github/workflows/ci.ymlポイント:tests/ と Makefile、ci.yml が揃うと再現→検証→自動チェックの流れが完成します。
README.md テンプレ
# プロジェクト名
## 目的とKPI
- 例:解約確率の予測(KPI: PR-AUC)
## データ
- 取得方法/サンプル/データ辞書(列名・単位・欠損)
## 再現手順
```bash
python -m pip install -r requirements.txt
make all # or python src/train.py
pytest -q
```
## 結果
- 指標(CV±std)、重要特徴、図1枚(注釈/基準線)
## 意思決定(打ち手)
- 閾値/在庫/コンタクト戦略の提案
## 限界と次の一手
- 仮定/データ制約/改善案Makefile テンプレ
.PHONY: all init data features train eval test clean
all: init data features train eval test
init:
python -m pip install -r requirements.txt
echo "seed=42" > .env
data:
python src/download\_data.py
features:
python src/features.py
train:
python src/train.py
eval:
python src/evaluate.py
test:
pytest -q
clean:
rm -rf models/*.pkl data/processed/*ポイント:all で上から一気通し。init で依存を入れ、seed を固定。test を最後に置くことで壊れにくさを担保します。
GitHub Actions(CI)テンプレ
name: ci
on: [push, pull_request]
jobs:
test:
runs-on: ubuntu-latest
steps:
- uses: actions/checkout@v4
- uses: actions/setup-python@v5
with: {python-version: '3.11'}
- run: python -m pip install -r requirements.txt
- run: pytest -qポイント:PR時にテストが自動実行。レビューの質が安定し、人の手戻りが減ります。
pytest 最小例
from src.evaluate import pr_auc
def test\_pr\_auc\_range():
s = pr\_auc(\[0,1,1],\[0.1,0.8,0.6])
assert 0.0 <= s <= 1.0
解説:値域テストは壊れた変更を早期に検知します。まずは1つの関数から始めましょう。
アンチパターン(減点リスト)
- 巨大1コミット(初回pushで全ファイル)/コミットメッセージが
"fix"のみ data/に**生データ(個人情報)**をコミットvenv/や.ipynb_checkpoints/を git 管理下に置く- 評価が正解率のみ、CVや±stdが無い
- 図が 3D/グラデ/色だらけ、単位や基準線が無い
相談時に使える質問テンプレ(コピペ可)
- 卒業生の **サンプルGitHub(PR/レビュー履歴付き)**を見せられますか?
- 課題で pytest と CI は必須ですか?差し戻し基準は?
この記事から次に読むべきもの(内部リンク)
-
-
【保存版】データ職のポートフォリオ完全ガイド|再現性・評価・LTまで
ポートフォリオって「作ったものの置き場」でしょ? いいえ。採用側が見たいのは「意思決定に効いた証拠」と「再現性」です。 本ガイドは、未経験〜初学者が週10時間×4〜6週で、テーマ選定→要件定義→データ ...
-
-
【保存版】Git/GitHub入門:バージョン管理・ブランチ戦略・レビュー・自動化を“実務の型”で最短習得
「分析やノートブックは作れるけど、壊れない運用の“型”がない…」 「final_v3_fix2_LAST.xlsx地獄から抜け出して、レビューと自動化まで一気通貫で回したい!」 この記事では、未経験〜 ...
-
-
【コピペOK】pytestで“壊れないPython”を作る12ステップ
「昨日は動いてたのに、今日は壊れた…」 データ分析やETL、機械学習のコードで多発するこの悲劇。実は“テスト不在”が9割です。 本記事は、pytestで“壊れないPython”を作るための実務ガイドで ...
-
-
【保存版】モデル評価:指標の選び方・交差検証・閾値最適化・ビジネス接続を“実務の型”で解説
精度が上がらない原因の多くは「評価設計の誤り」にあります。 評価は「何点取れたか」を競うものではなく、意思決定に耐えうるか を検証する営みです。本記事は、回帰/分類/ランキングの 指標選定 → 交差検 ...
-
-
コピペで回るレポート納品|Jupyter→PDF/HTML→共有の自動化テンプレ
毎週のレポート納品、朝にバタつきませんか? コードや図表は作ったのに、PDF化や共有で崩れる…。その“揺らぎ”を今日で終わらせましょう。 分析の価値は、最後の“納品物”で決まります。本記事では、Jup ...
最近のコメント