キャリアチェンジ/転職 スクール比較/レビュー ロードマップ

スクール卒業後の実力はGitHubで判定|評価軸と30分チェック

スクールって「卒業後の実力」をどう見極めればいい?

答え:卒業生のGitHubで判断できます。完成品よりも、“再現性×運用×説明力”です。

関連記事:
>>【保存版】データ職のポートフォリオ完全ガイド|再現性・評価・LTまで
>>【保存版】Git/GitHub入門:バージョン管理・ブランチ戦略・レビュー・自動化を“実務の型”で最短習得
>>【コピペOK】pytestで“壊れないPython”を作る12ステップ
>>【保存版】モデル評価:指標の選び方・交差検証・閾値最適化・ビジネス接続を“実務の型”で解説
>>【保存版】ハイパーパラメータ入門:Grid/Random/Optunaの実務チューニング完全ガイド
>>コピペで回るレポート納品|Jupyter→PDF/HTML→共有の自動化テンプレ
>>【保存版】可視化入門:Matplotlib/Plotlyの使い分けと“伝わるグラフ設計”10ステップ

なぜGitHubで判断できるのか(現場視点)

採用側が重視するのは「壊れない」「伝わる」こと。高い精度のモデルよりも、再現できて、テストが回り、意思決定に繋がるリポジトリが評価されます。

  • 再現性:環境・データ・手順が整い、READMEどおりに動く
  • 運用:テスト・CI・Issue/PRが回っており、壊れにくい
  • 説明力:目的/指標/意思決定までを1枚で伝えられる

実例:AさんはAUCが高いのにデータ取得手順がREADMEに無く、再現で詰まりました。
Bさんは精度は普通でも Makefilepytest・CI が揃い、意思決定(閾値や運用案)も明記。
Bさんを即面接に進行しました。

保存版ルーブリック(100点満点)

合計:100点60点以上=実務入門可、75点以上=即戦力候補

観点 配点 評価基準(要件)
1. 再現性:環境 10 READMEに実行手順/依存、requirements.txtまたはpyproject.tomlDockerfileがあれば満点
2. 再現性:データ 10 サンプル/擬似データ or 取得スクリプト、データ辞書(列名/単位/欠損)をdocs/
3. 再現性:手順 10 Makefilemake allで上から通る、seed固定・乱数再現
4. 運用:テスト 10 pytest最小セット(ETL/特徴量/指標)。pytest -qが通る
5. 運用:CI 10 GitHub Actions等でテスト自動化。ノートブック出力クリア(nbconvert/nbstripout)
6. 運用:Issue/PR 10 Issue/PRテンプレ、レビュー履歴、差し戻し・議論のログ
7. 説明力:README 10 目的/KPI/データ/手順/結果/限界/次アクションを1枚に要約、図1枚+根拠リンク
8. 説明力:可視化 5 図は2–3色+強調1色、注釈/基準線、PNG 200dpi+
9. モデル評価 10 適切な指標(分類:PR-AUC等/回帰:MAE等)、CV±std、過学習検証
10. 実務接続 10 意思決定(閾値/在庫/価格等)への翻訳、次の打ち手が明記
合計 100 60点=合格、75点=強い

30分チェックリスト(コマンド付き)

目的:初見のリポジトリを30分で評価し、合否の目星をつける

1) 依存とテスト

# 依存関係の定義があるか
cat requirements.txt || cat pyproject.toml
# 単体テストが最小でも用意されているか
pytest -q

解説:依存が明記されていれば環境構築が速い。pytest -q が即時に通るなら、最低限の品質管理が回っています。

2) CI の有無(GitHubの場合)

#GitHub Actions のワークフロー定義
cat .github/workflows/*.yml

解説:プッシュ/PR時に自動でテストが走れば、壊れたコードが主分岐に混ざりにくい

3) 実行手順(Makefile推奨)

# 主要ターゲットが並び、上から流せるか
make -n all || grep -n "Usage" README.md

解説make -n は実行せずに流れだけ確認できます。READMEの「Usage」が明快なら、短時間再現が可能。

4) 変更履歴の粒度

git log --oneline | head -n 20

解説:巨大な1コミットや「fix」だけのメッセージは赤信号。小さく頻繁なコミットが健全です。

5) 行数と構成

pip install cloc && cloc .

解説:行数とディレクトリの偏りで保守しやすさが分かります。venv/.ipynb_checkpoints/ をgit管理していると減点。

減点例(よくある落とし穴):巨大1コミット/生データを data/ にコミット/venv/ を管理/正解率のみの評価/3Dグラフ多用+注釈なし

スクール選びのコツ:レビューが厳しいほど伸びる

差し戻し事例やPRテンプレを公開/共有できるスクールは、実務に近いレビューを運用している可能性が高いです。
まずは無料カウンセリングで、GitHubのサンプル課題を見せてもらいましょう。

TechAcademy データサイエンスコース(受講料:174,600円~ ※更に割引あり)

TechAcademy 無料相談

株式会社キカガク AI人材長期育成コース(受講料:237,600円~)

キカガク 無料相談

読者タイプ別:チェック観点の優先度

  • 社会人(転職):CI/テスト/PRの運用と、意思決定への翻訳を重視。
  • 副業目的(稼ぎたい)レポート納品の型と自動化(Makefile/スケジューラ)。
  • 在宅中心:READMEの明快さと、短時間で再現できるか。録画や図の分かりやすさも加点。

判定のしかた(タイムボックス:30分

  1. README(5分):目的/KPI/データ/再現手順/結果/限界/次アクション
  2. 実行(10分)make all or python -m pip install -r requirements.txtpytest -q
  3. 構成/変更(5分)tree -L 2git log --oneline
  4. CI/PR(5分).github/workflows とPR履歴
  5. 採点(5分):上の表に点を入れて合計。合格/要改善を判定

評価フォーム(コピペ可)

# GitHub評価フォーム
- リポジトリ名:
- URL:
- 目的/KPI:
- 合計点:__/100(合格≥60, 強い≥75)
## メモ
- 強み:
- 弱み:
- 改善提案(3点):

テンプレ集:そのまま使える“良い型”

ディレクトリ構成

project/
  ├─ README.md
  ├─ pyproject.toml or requirements.txt
  ├─ data/ (raw/processed/README)
  ├─ src/
  │   ├─ features.py
  │   ├─ train.py
  │   └─ evaluate.py
  ├─ models/ (artifacts with metadata)
  ├─ tests/
  │   ├─ test_features.py
  │   └─ test_metrics.py
  ├─ notebooks/
  ├─ Makefile
  └─ .github/workflows/ci.yml

ポイントtests/Makefileci.yml が揃うと再現→検証→自動チェックの流れが完成します。

README.md テンプレ

# プロジェクト名
## 目的とKPI
- 例:解約確率の予測(KPI: PR-AUC)
## データ
- 取得方法/サンプル/データ辞書(列名・単位・欠損)
## 再現手順
```bash
python -m pip install -r requirements.txt
make all  # or python src/train.py
pytest -q
```
## 結果
- 指標(CV±std)、重要特徴、図1枚(注釈/基準線)
## 意思決定(打ち手)
- 閾値/在庫/コンタクト戦略の提案
## 限界と次の一手
- 仮定/データ制約/改善案

Makefile テンプレ

.PHONY: all init data features train eval test clean
all: init data features train eval test

init:
python -m pip install -r requirements.txt
echo "seed=42" > .env

data:
python src/download\_data.py

features:
python src/features.py

train:
python src/train.py

eval:
python src/evaluate.py

test:
pytest -q

clean:
rm -rf models/*.pkl data/processed/*

ポイントall上から一気通しinit で依存を入れ、seed を固定。
test を最後に置くことで壊れにくさを担保します。

GitHub Actions(CI)テンプレ

name: ci
on: [push, pull_request]
jobs:
  test:
    runs-on: ubuntu-latest
    steps:
      - uses: actions/checkout@v4
      - uses: actions/setup-python@v5
        with: {python-version: '3.11'}
      - run: python -m pip install -r requirements.txt
      - run: pytest -q

ポイント:PR時にテストが自動実行。レビューの質が安定し、人の手戻りが減ります

pytest 最小例

from src.evaluate import pr_auc

def test\_pr\_auc\_range():
s = pr\_auc(\[0,1,1],\[0.1,0.8,0.6])
assert 0.0 <= s <= 1.0

解説値域テストは壊れた変更を早期に検知します。まずは1つの関数から始めましょう。

アンチパターン(減点リスト)

  • 巨大1コミット(初回pushで全ファイル)/コミットメッセージが "fix" のみ
  • data/ に**生データ(個人情報)**をコミット
  • venv/.ipynb_checkpoints/ を git 管理下に置く
  • 評価が正解率のみ、CVや±stdが無い
  • 図が 3D/グラデ/色だらけ、単位や基準線が無い

相談時に使える質問テンプレ(コピペ可)

  1. 卒業生の **サンプルGitHub(PR/レビュー履歴付き)**を見せられますか?
  2. 課題で pytest と CI は必須ですか?差し戻し基準は?

この記事から次に読むべきもの(内部リンク)

ポートフォリオ
【保存版】データ職のポートフォリオ完全ガイド|再現性・評価・LTまで

ポートフォリオって「作ったものの置き場」でしょ? いいえ。採用側が見たいのは「意思決定に効いた証拠」と「再現性」です。 本ガイドは、未経験〜初学者が週10時間×4〜6週で、テーマ選定→要件定義→データ ...

Git/Github
【保存版】Git/GitHub入門:バージョン管理・ブランチ戦略・レビュー・自動化を“実務の型”で最短習得

「分析やノートブックは作れるけど、壊れない運用の“型”がない…」 「final_v3_fix2_LAST.xlsx地獄から抜け出して、レビューと自動化まで一気通貫で回したい!」 この記事では、未経験〜 ...

テスト
【コピペOK】pytestで“壊れないPython”を作る12ステップ

「昨日は動いてたのに、今日は壊れた…」 データ分析やETL、機械学習のコードで多発するこの悲劇。実は“テスト不在”が9割です。 本記事は、pytestで“壊れないPython”を作るための実務ガイドで ...

モデル評価
【保存版】モデル評価:指標の選び方・交差検証・閾値最適化・ビジネス接続を“実務の型”で解説

精度が上がらない原因の多くは「評価設計の誤り」にあります。 評価は「何点取れたか」を競うものではなく、意思決定に耐えうるか を検証する営みです。本記事は、回帰/分類/ランキングの 指標選定 → 交差検 ...

レポート納品
コピペで回るレポート納品|Jupyter→PDF/HTML→共有の自動化テンプレ

毎週のレポート納品、朝にバタつきませんか? コードや図表は作ったのに、PDF化や共有で崩れる…。その“揺らぎ”を今日で終わらせましょう。 分析の価値は、最後の“納品物”で決まります。本記事では、Jup ...

最近のコメント

    • この記事を書いた人
    • 最新記事

    ふみと

    このブログでは、データサイエンティストとして市場価値を上げる方法を独自にまとめて発信しています。

    【プロフィール】
    ・大手企業データサイエンティスト/マーケティングサイエンティスト(10年、年収900万円台)/案件100件以上
    ・資格:JDLA E資格(日本ディープラーニング協会主催)/JDLA Community(CDLE会員)/Advanced Marketer/ビジネス統計スペシャリスト/統計検定2級/TOEIC 805
    ・スキル:Python/Tableau/SQL/機械学習/Deep Learning/RPA

    -キャリアチェンジ/転職, スクール比較/レビュー, ロードマップ