atom.training-designer.rubric-generation
記述式問題の採点基準をAIで作る
記述式問題の採点基準をAIで作る たとえば料理のコンテストで「味」を審査するとき、「おいしい・ふつう・イマイチ」だけだと、審査員によって点がバラバラになってしまいます。だから「素材の鮮度」「火の通り」「盛り付けの美...
成果物成果物このレッスンが終わったとき、あなたの手元に残る具体的な成果物です(例: 公開済みの Web ページ、動作するフォームなど)。
証跡証跡成果物が正しく作れたことを確認するためのチェックリストです(例: ブラウザで動作する、フォーム送信で値が保存される)。
メディアメディアレッスン内に出てくる図や動画のスロットです。実際の画面やイメージで理解を補助します。
レッスン本文
記述式問題の採点基準をAIで作る
たとえば料理のコンテストで「味」を審査するとき、「おいしい・ふつう・イマイチ」だけだと、審査員によって点がバラバラになってしまいます。だから「素材の鮮度」「火の通り」「盛り付けの美しさ」など、評価する項目をあらかじめ決めておきますよね。
テストの採点でも同じことが言えます。記述式問題(=生徒が自分の言葉で文章を書いて答える問題)を採点するとき、基準があいまいだと採点者によって点数が変わってしまいます。この Atom では、AIチャットツール(=ChatGPTやClaudeなど、対話しながら文章を作れるAI)を使って、採点基準(ルーブリック)を15分で作る方法を学びます。

用意するものを確認する
問題をAIに読み込ませる
まずはAIに「どんな問題なのか」を伝えます。AIチャットの入力欄に、次のプロンプト(=AIへの指示文)を貼り付けて、カッコ内を自分の問題文に書き換えてから送信してください。
あなたは教育評価の専門家です。
以下の記述式問題に対する採点基準(ルーブリック)を作成してください。
条件:
- 評価項目は3〜4個
- 到達レベルは「優・良・可・不可」の4段階
- 各マスの説明は「誰が読んでも同じ判定ができる」くらい具体的に書く
- 表形式(Markdown の表)で出力する
【問題文】
(ここに問題文を貼り付ける)
【想定する回答者】
(例: 大学1年生、社内研修の受講者、高校2年生 など)
良い例: 上のプロンプトに問題文・回答者情報をしっかり入れて送信する
悪い例: 「採点基準を作って」だけ送る → AIが一般的すぎる基準を出してしまい、使い物になりません
ポイント: 「回答者」の情報を入れると、その人たちに合った言葉遣い・難易度の基準が出てきます。高校生向けと社会人向けでは、求めるレベルが違いますよね。
基準の枠組みを確認する
AIから回答が返ってきたら、まずはざっと目を通して、次の3点を確認します。
- 評価項目(=何について採点するか)が明確に分かれているか
- 到達レベル(=「優」「良」「可」「不可」など)が3〜5段階あるか
- 各マスの説明が具体的で、読めばすぐ判断できる内容か

到達レベルの書き方を比べる
良い到達レベルの書き方:
- 優:「3つの特徴を正確に挙げ、それぞれに適切な具体例が含まれている」
- 良:「3つの特徴を挙げているが、具体例が1つ欠けている」
- 不可:「特徴を1つも挙げていない、または問題と無関係な内容」
悪い到達レベルの書き方:
- 「よくできている」
- 「だいたいできている」
- 「あまりできていない」
悪い例は「誰が見ても同じ判断になる基準」になっていません。「よくできている」の基準は人によって違うからです。
確認で「あれ?」と思ったときのAIへの追加指示
AIの出力にイマイチな部分があったら、そのまま同じチャットで追加の指示を送ります。よくあるケースごとに、コピペできるプロンプト例を載せておきます。
ケース1: 各マスの説明があいまい
各マスの説明を、もっと具体的にしてください。
「誰が読んでも同じ判定になる」を基準にして、
数値や具体的な行動で書き直してください。
ケース2: 評価項目が多すぎる(5個以上ある)
評価項目が多すぎるので、最も重要な3つに絞ってください。
残りの項目は削除して構いません。
ケース3: 段階の区別がわかりにくい
「良」と「可」の違いがわかりにくいです。
具体的な回答例を添えて、区別を明確にしてください。
基準を自分の目的に合わせる
AIが出した基準は「たたき台(=下書き)」です。そのまま使わず、次のように調整してください。
- 評価項目を絞る: 自分の採点で重視したい項目だけを残す(3つが最も使いやすい)
- 到達レベルをそろえる: 使いやすい段階数(3段階か4段階がおすすめ)にする
- 言葉を書き換える: 受講者や採点者チームに合った言葉遣いに直す
調整もAIに頼めます。たとえば次のように入力します。
以下の修正を加えてください:
1. 評価項目を「内容の正確性」「具体例の適切さ」「文章構成」の3つに絞る
2. 「不可」の基準に「白紙・未回答の場合」を明記する
3. 小学校の先生が読んでわかる言葉遣いに統一する
良い例: 自分の採点現場で重視したい項目を明示してAIに再生成させる
悪い例: AIの出力をそのまま採用する(自分の受講者に合わない基準になっていることがあります)
模範解答でテストする
完成した採点基準をテストします。テストしないまま本番で使うと、「基準通りに採点したのに納得いかない点数になった」ということが起きがちです。
テスト手順
- AIに次のプロンプトを送って、模範解答(=理想的な回答例)を作ってもらう:
この問題に対する模範解答を1つ書いてください。
「優」の基準をすべて満たす回答にしてください。
- 返ってきた模範解答を、自分が作った採点基準で手動で採点してみる
- すべての評価項目で最高レベル(「優」)になるか確認する
テストで問題が見つかったら
- 模範解答なのに「優」にならない項目がある → その項目の基準が厳しすぎるか、説明があいまいです。基準を書き直しましょう
- 「可」レベルの回答も「良」に見えてしまう → 「良」と「可」の境界が不明確です。数値や具体例で区別を追加しましょう
つまずきやすいポイントを押さえる
| つまずき | 原因 | 対策 |
|---|---|---|
| AIの基準が説明不足でふわっとしている | プロンプトに「具体的に」と書いていない | 「各マスを誰が読んでも同じ判定になるよう、数値や行動で具体的に書いて」と追加指示する |
| 評価項目が6個以上出てくる | AIが網羅的に出す傾向がある | 「最も重要な3つに絞って」と伝える。3つが迷わず採点できるベストな数です |
| 実際の回答に基準が当てはまらない | テスト不足 | 模範解答だけでなく、「可」レベルの解答例もAIに作らせて試す |
| AIツールごとに出力形式が違う | ツールの個性 | 「Markdownの表形式で出力して」と形式を指定すれば統一できます |
成果物を保存する
最終的な採点基準をテキストファイルやメモアプリに保存します。あとで見直しやすくするため、次のフォーマットで保存することをおすすめします。
■ 採点基準(ルーブリック)
作成日: 2026/04/13
対象問題: (問題をそのまま貼る)
想定回答者: (例: 大学1年生)
■ 評価項目と到達レベル
①内容の正確性
- 優: 3つの特徴を正確に挙げ、すべてに適切な具体例がある
- 良: 3つの特徴を挙げているが、具体例が1つ不足
- 可: 特徴を2つしか挙げていない、または具体例が2つ以上不足
- 不可: 特徴を1つも正確に挙げていない
②具体例の適切さ
- 優: ...
(以下、各項目を同様に記載)
■ テスト済み
- 模範解答で全項目「優」を確認済み: はい / いいえ
完了を確認する
以下の3つすべてに「はい」と言えたら、この Atom は完了です。
- AIチャットツールを使って、記述式問題の採点基準(ルーブリック)を作成できた
- 模範解答でテストして、基準が正しく機能することを確認した
- 完成した採点基準を、上のフォーマットに沿って保存した
これで完成です! この基準を使って、実際の採点に取り組んでみてください。基準を使ってみて「ここが合わないな」と感じたら、いつでもAIに相談して微調整できます。
種類: markdown_doc
検証: basic_manual_check_v1
証跡証跡成果物が正しく作れたことを確認するためのチェックリストです(例: ブラウザで動作する、フォーム送信で値が保存される)。
メディア
必須
なし
あると楽
なし