認知学習工学とは何か

この章で扱う問い

本書を手に取ってくれたあなたの関心は、おそらく一様ではないと思います。知的学習支援システム (ITS) を作りたい人、認知科学から教育に近づこうとしている人、AIED や LA/EDM の研究室にいる人、あるいは単に「機械が人を教えるとはどういうことか」を考えてみたい人――入り口はさまざまでしょう。本章は、そうしたあなたたちに共通の出発点を用意するための章です。僕が本書で 認知学習工学 (Formalized Cognitive Learning, FCL) と呼ぶことにしている見取り図が、何を問題にし、なぜいま語る価値があるのかを、まずざっくりと素描します。続く章々で詳しく扱う「認知」「学習」「知識」といった概念が、どのような大きな絵の中に置かれているのかを、ここで先に眺めておきたいのです。なお「FCL」という名前自体は僕が本書のためにあてた 作業ラベル であって、すでに教科書に載っている確立された分野名ではありません。あなたが自分の研究に持ち帰るときには、そのまま使ってもよいし、別の呼び名に置き換えて構いません。

この領野は隣接分野(認知科学・教育学・知識工学・AI など)が多く、最初に踏み込んだ人がうまく地図を描けずに迷うことがよくあります。本章は、そんなときに先に眺めておきたい見取り図のようなものとして書きました。

本書の中心的な問題意識

本書の出発点になっている問題意識を、あえて一文に圧縮するなら、こう書けます。

真に効果的な個別化学習を実現するには、人間の認知プロセスを科学的に理解し、それを計算論的に 形式化 し、形式化された知識に基づいて適応的な学習環境を設計・実装することが欠かせない。

この立場は、二つの誘惑への抵抗でもあります。一つは「データを集めて機械学習に投げれば学習は最適化される」というデータ駆動の楽観主義。もう一つは「学習理論は現場で使えればよく、計算可能な形に整える必要はない」という理論側の素朴さです。本書はこの二つの中間に立つ工学的視点を取り、認知科学・教育学が蓄積してきた知見を、計算機が処理でき、かつ人間が検証できる中間的な表現に落とし込むことを目指します。

この立場が要請されるのは偶然ではありません。一斉授業の限界、家庭教師の希少性、AI の台頭と限界――半世紀にわたる試行錯誤のすべてが、この一点に収束しつつあります。以下、まずその歴史的背景から見ていきましょう。

個別化学習の必要性

万人のための教育から一人ひとりのための教育へ

「誰に、何を、どのように教えるか」という問いに対する答えは、時代とともに大きく揺れてきました。古代ギリシャのソクラテスは、一対一の対話を通じて弟子に真理を気づかせる「産婆術」を実践しました。中世ヨーロッパや日本の徒弟制度では、親方が弟子の手元を見ながら技を直接伝えていました。これらはいずれも、学習者一人ひとりに応じた個別的な営みです。

転機となったのは、近代国民国家の成立です。17 世紀のコメニウス『大教授学』[Comenius1657] は、すべての階級・性別の子どもに同じ知識を効率的に届ける方法を体系化しようとしました。そして 19 世紀、プロイセン型の学校制度は、年齢で区切ったクラス、標準化されたカリキュラム、教科書、時間割、一斉授業という現代まで続く枠組みを完成させ、それが世界中に輸出されました。この一斉授業モデルは、識字率と基礎学力を爆発的に押し上げ、産業社会の人材供給という歴史的使命を見事に果たしたといえます。

しかし、その代償として、教育は学習者一人ひとりの差異を扱うことを諦めるしかありませんでした。同じ説明を聞いてもすぐ理解する生徒もいれば、何度繰り返しても腑に落ちない生徒もいます。同じクラスにいながら前提知識は驚くほど多様であり、視覚的に把握する生徒と論理的説明を好む生徒、興味を引かれる題材も動機の源泉も一人ひとり異なります。これらすべてに「平均的な進度」で対応することは原理的に不可能です。

この差異を真正面から測定したのが、Benjamin Bloom の有名な「2 シグマ問題」[Bloom1984] です。Bloom と共同研究者は、シカゴ周辺の学校で 4・5・8 年生を対象に、同じ内容を三つの条件――通常の一斉授業、形成的評価を伴うマスタリー学習、そして一対一 (または 1 対 2〜3) の家庭教師指導――で教える比較実験を行いました。結果は劇的でした。家庭教師指導を受けた群の中央値の生徒は、一斉授業群の上位約 2% に相当する成績に到達したのです。すなわち平均で約 2 標準偏差 (2σ) の差。Bloom 自身が「これは教育研究で見たことのない大きさの効果だ」と書き、教育界を震撼させました。同時にこれは「個別指導の効果に匹敵する一斉授業の方法を見つけよ」という挑戦状でもあります。Bloom の問いは、それから 40 年が経った今もなお、完全には解かれていません。

この未解決の問いに、技術はどこまで応えられるのか――次に見るのは、その挑戦の歴史です。

テクノロジーによる個別化の最初の試み:PLATO の野望

一人の教師が数十人の生徒に個別対応することは、人件費の上でも認知的負荷の上でも現実的ではありません。しかし、コンピュータならどうでしょうか。1960 年、まさにこの問いを実践に移したのが、イリノイ大学のドナルド・ビッツァー (Donald Bitzer) が立ち上げた PLATO (Programmed Logic for Automatic Teaching Operations) プロジェクト [Alpert1969] です。

ビッツァーは電気工学者でした。軍用シミュレータの仕事を通じて「コンピュータで人を教えられないか」という構想を抱き、当時希少だった大型計算機 ILLIAC I を時間借りして実験を始めます。技術的なボトルネックはディスプレイでした。商用の CRT は高価で、グラフィックも荒く、教室に置けるものではない。そこで彼の研究室は、独自に オレンジ色のプラズマディスプレイ を発明します。記憶機能を内蔵したこの薄型ディスプレイは、配線一本で一文字ずつ書き換えられるため、低帯域でも複数端末を同時にホストにつなげました。1970 年代には PLATO IV システムが完成し、ピーク時には全米・全世界に 1000 台以上の端末が接続され、何万人もの学生が幾何学・化学・外国語・初歩的プログラミングを学びました。コミュニティ機能 (フォーラム、メッセージング、リアルタイムチャット、マルチプレイヤゲーム) も PLATO 上で先駆的に実装され、後のインターネット文化の原型となります。

しかし PLATO の教材自体は、Skinner の行動主義的プログラム学習 [Skinner1938] を電子化したものに留まっていました。学習者の応答に応じて次の画面に分岐する、正答に強化を与える、誤答には別の経路を提示する――これだけです。学習者が「なぜ」その誤りをしたのか、どの概念的理解が欠落しているのかを、システムは知りませんでした。教材作成言語 TUTOR で書かれた分岐は本質的に巨大な決定木であり、想定外の誤答や、学習者の質問にはまったく対応できなかったのです。研究者たちは早い段階でこの限界を自覚していました。PLATO の偉業は「コンピュータで教えられること」を実証したことであり、その同じ実績が、次の世代に「単なる分岐では足りない」という課題を残したわけです。

SCHOLAR と知的個別指導システムの誕生

その課題に最初に挑んだのが、1970 年に BBN (Bolt Beranek and Newman) / MIT の Jaime R. Carbonell が発表した SCHOLAR [Carbonell1970scholar] です (同名の息子 Jaime G. Carbonell は CMU の自然言語処理研究者で、別人です)。SCHOLAR は南米の地理を題材としていましたが、その本質は教材そのものではなく、知識を意味ネットワーク (semantic network) として明示的に表現する という発想にあります。「アルゼンチン――首都――ブエノスアイレス」「アルゼンチン――言語――スペイン語」「ペルー――隣国――エクアドル」といったノードとリンクの集合があれば、システムはそれを推論しながら自然な対話を組み立てられる――この発想自体は、第 4 章で扱う知識表現の議論にもそのままつながります。半世紀前にここまでの構想がすでに動いていたことには、いま読み直しても驚かされます。

SCHOLAR が実演したのは「混合主導対話 (mixed-initiative dialogue)」でした。学習者が「ペルーの言語は?」と問えば答え、しばらくすると逆にシステムが「アルゼンチンとチリの違いを述べよ」と質問を返す。学習者の答えが「ブラジル」のように単に間違っているのではなく、関連はあるが文脈に合わない場合には、知識ネットワークをたどって「ブラジルはポルトガル語ですが、私が訊いたのはアルゼンチンです」と訂正できる。電子化されたドリルとはまったく別物の、対話的な知的振る舞いがそこにはあったわけです。

しかし SCHOLAR は同時に、後のすべての知的個別指導システムが直面する根本問題も浮き彫りにしました。意味ネットワークは事実知識 (〜は〜である) の表現には適していたものの、手続き的知識 (どう問題を解くか) と、誤りを起こす学習者の認知メカニズム には踏み込めなかったのです。システムは「学習者が知らないこと」は推測できても、「学習者がなぜそう間違えたか」は分からないまま――この限界は、第 5 章で扱う認知プロセス分析の出発点でもあります。

SCHOLAR を皮切りに、続く十年で SOPHIE (電子回路のトラブルシューティングを学ぶシミュレーション環境)、WHY (気象現象のソクラテス的対話) など、いわゆる 知的個別指導システム (ITS: Intelligent Tutoring Systems) の最初の世代が次々と現れます。彼らが共通して掲げた問いは、後に標準的な 4 構成要素モデルとして定式化されました。

  1. 学習者は今何を知っており、何を知らないのか (学習者モデリング)
  2. 学習者はなぜその誤りをしたのか (診断)
  3. 次に何を学ぶべきか (教授戦略)
  4. どのように教えるのが効果的か (教授戦術)

これらに答えるには、もはや単なる教材作成技術ではなく、人間の認知の科学的モデル、知識を記述する言語、そして両者を統合する工学が必要であることが明らかになっていきます。

BUGGY が示したこと:誤りは体系的である

その「学習者がなぜ間違えるのか」に正面から取り組んだのが、John Seely Brown と Richard Burton の BUGGY (1978) です [Brown1978]。彼らは小学生の繰り下がりのある引き算を分析し、誤答が単なる不注意ではなく、学習者が一貫して用いている誤った手続き ――彼らはこれを「バグ」と呼びました――に由来することを示しました。たとえば「上位の桁から借りるのを忘れて、下位の桁の引き算だけ独立に計算する」「0 を含む引き算で、向きに関係なく大きい方から小さい方を引いてしまう (smaller-from-larger)」といった具合です。彼らはこうしたバグを 100 以上カタログ化し、続く Repair Theory と合わせて、学習者の数題の応答パターンから、その学習者がどのバグを抱えているかを逆推定する診断アルゴリズムを構築しました。

BUGGY の衝撃は二重です。第一に、誤りは確率的な「揺らぎ」ではなく、しばしば 完全に一貫した別の正しい手続き であるということ。第二に、ということは、教師が「もっと注意せよ」と叱るのは無意味で、対症的に正答を示すのも不十分であり、学習者が現に走らせている誤った手続きそのものを書き換える 介入が必要だということになります。これは、誤りを学習者モデリングの中心に据えるという、その後の ITS 研究の方向を決定づけた発見です。第 5 章のエラー分析の議論でも、再びこの BUGGY の発想に戻ってくることになります。

Cognitive Tutor:ITS が研究室を出た日

BUGGY が手続き的誤りの構造を示した同じ頃、CMU の John Anderson は人間の認知全体を統合的にモデル化する ACT (後の ACT-R) 理論 [Anderson2007] を構築していました。ACT-R は、宣言的知識 (事実) と手続き的知識 (IF-THEN プロダクションルール) を区別し、ルールが繰り返しの使用によって強化されるという数理的仕組みを与えます。Anderson の野心は、この認知理論を そのまま教育システムに組み込む ことでした。

1980 年代後半から 1990 年代にかけて、Anderson の研究室は高校代数・幾何のための Cognitive Tutor [Anderson1995] を開発しました。中核となる二つの技術が モデルトレーシング知識トレーシング です。モデルトレーシングは、専門家の解法を表すプロダクションルール集合を用意し、学習者が打つ各ステップがどのルールの適用に対応するかを照合します。これにより、答えだけでなく途中経過に対して即座にフィードバックが出せます。知識トレーシングは、各ルールが習得済みである確率をベイズ的に逐次更新する仕組み (後に BKT: Bayesian Knowledge Tracing と呼ばれます) であり、これによって個々の学習者ごとに練習問題の難易度と量を調整できるわけです。

Cognitive Tutor が画期的だったのは、研究室の中で動くプロトタイプに留まらず、Anderson らがスピンアウト企業 Carnegie Learning を通じて、これをピッツバーグや全米の公立校の教科書とセットで実用化したことです。教師は専用のダッシュボードでクラス全員の進捗を見、生徒は週の一部の授業時間を Cognitive Tutor に充てます。2014 年、RAND Corporation はテキサスを中心に 7 つの学区 147 校・約 18,700 名の生徒を対象とした大規模ランダム化比較試験 (RCT) の結果を発表しました [Pane2014]。1 年目は有意差なし、しかし 2 年目には Cognitive Tutor 群の生徒が標準的代数の成績で約 0.20σ 高い成績を示したのです。Bloom の 2σ には届きませんが、教育介入として「実環境で再現性のある統計的有意差」が出たこと自体が大きな成果でした。これは、形式化された認知モデルに基づく ITS が、研究室の白板から、毎日何万人の生徒が触れる現実の教室まで橋を渡せることを示した、稀有な事例です。

なお Cognitive Tutor が ACT-R に強くコミットしているのに対し、ニュージーランドの Stellan Ohlsson は別の哲学を提示しました。制約ベースモデリング [Ohlsson1994] は、正しい解法を全列挙するのでなく、「これに違反したら誤り」という 制約 だけを定義し、違反検出によって学習者を診断する手法です。SQL のクエリや作文のように「正解が無数にあるが間違えのパターンは限られている」領域では、こちらが有効です。形式化のスタイルは一つではない――この点は、本書全体を通じて繰り返し意識してほしいところです。

データ駆動の時代と、その限界

2000 年代に入り、舞台は再び大きく変わります。LMS、MOOCs、各種オンライン学習プラットフォームの普及によって、学習データは桁違いに豊富になりました。Educational Data Mining (EDM) [Romero2010]; [Baker2014] は、こうしたログデータからクラスタリングや系列パターン、予測モデルを抽出し、Learning Analytics (LA) [Siemens2013] は、よりリアルタイム志向で、教師向けダッシュボードや早期介入を実装しました。2010 年代後半には、知識追跡の RNN/LSTM 版である Deep Knowledge Tracing (DKT) が登場し、純粋な予測精度では古典的な BKT を上回るようになります。

しかし、ここで構造的な問題が顕在化します。深層モデルはなぜそう予測したかを語らない のです。「この生徒は次の試験で 85% の確率で失敗する」と言われても、教師にも生徒にも、何をどう教え直せばよいのかは分かりません。説明が不在であることは、信頼性の欠如、知見の累積困難 (モデルは一般化可能な「理論」をくれない)、訓練データに含まれるバイアスの無自覚な再生産といった一連の問題を引き起こします。Cognitive Tutor が「なぜこのヒントを今出したか」を ACT-R モデルに遡って語れたのに対し、DKT は同じ精度の予測を、しかし 理由抜きで 渡してくる、というわけです。

そして 2020 年代、ChatGPT を筆頭とする大規模言語モデル (LLM) が登場します [Kasneci2023]。自然な対話、無尽蔵の例題生成、作文の添削、ソクラテス的な問いかけ――個別指導の長年の夢の一部は、確かに技術的に手が届く距離に来ました。しかし同時に、ハルシネーション (自信に満ちた虚偽)、認知プロセスの無理解、説明の一貫性のなさといった、見過ごしようのない限界も明らかになっています。LLM は学習者が「何を答えたか」には反応できても、「なぜその答えに至ったか」を学習者モデルとして保持してはいないのです。

なぜ今この地図が必要か

ここまでの歴史から見えてくる構図は単純です。PLATO は分岐の限界に、SCHOLAR は手続きの欠如に、Cognitive Tutor は形式化の労力という現実的制約に、DKT/LLM は説明可能性の欠如にぶつかってきました。それぞれの世代の限界は、次の世代によって部分的にしか乗り越えられていません。

本書の問題意識は、これらを対立軸として見るのを止めることにあります。データ駆動と理論駆動、ブラックボックスと説明可能性、技術志向と教育学志向――これらは選択肢ではなく、統合すべき二つの極です。LLM の言語能力を制御するには形式化された知識が要ります。形式化された知識を実用化するには学習データと機械学習の助けが要ります。両者を仲介するのが、人間にも計算機にも読める 中間表現 であり、両者を社会として再生産するのが エコシステム です。次節で、この三つのテーマを順に紹介していきましょう。

本書を貫く三つのテーマ:形式化・中間表現・エコシステム

形式化 (Formalization)

形式化 とは、人間の認知プロセスとその対象を、計算可能かつ人間に理解可能な形式で表現することです。本書の文脈では、形式化は互いに依存する三つのレベルで行われます。第一は ドメイン知識の形式化 ――数学・物理・プログラミングといった領域の概念、概念間の関係、手続き的知識の明示的な記述です。第二は 認知プロセスの形式化 ――学習者がどのような知識をどう活性化し、どう変容させるかを計算モデルとして書き下すこと。Cognitive Tutor のプロダクションルールはまさにこのレベルに対応します。第三は 教授戦略の形式化 ――どのような状況でどのような支援を出すかを、ルールやアルゴリズムとして明文化することです。

なぜこれが「単なる技術的要請」ではなく重要なのでしょうか。形式化が果たすのは、暗黙のうちに人間の頭の中にあった仮定を 机上に引きずり出す ことです。引きずり出されてはじめて、それは検証され、批判され、改善され、計算機で実行され、他の研究者と共有され、その推論結果について「なぜそうなるのか」を説明できるようになります。教育研究が長年「再現性に乏しい」と批判されてきた一因は、教授デザインや診断の根拠が論文の散文の中にしか存在せず、機械的に追試できなかったことにあります。形式化は、この問題に対する工学的処方箋の一つです。

この立場は、David Marr が情報処理システムを理解するための三つのレベル [Marr1982] ――計算理論レベル (何を、なぜ計算するか)、表現とアルゴリズムレベル (どう表現し処理するか)、実装レベル (物理的にどう実現するか) ――として定式化したものとよく対応します。本書での形式化は、主としてレベル 1 と 2 に位置します。「学習者の概念理解を診断する」という計算的目標を定義し (レベル 1)、それを担う表現とアルゴリズムを設計する (レベル 2)。実装の細部は変わってよいが、計算理論と表現は分野の共有財産として残す――これが本書の規範的な姿勢です。

中間表現 (Intermediate Representation)

形式化されたものを、それを書いた人間以外も使えるようにするには、もう一段の抽象化が必要です。それが 中間表現 (IR) です。コンパイラの世界で IR が異なる言語と異なる機械の間を仲介するのと同様に、ここで言う中間表現は、異なる学習支援システム間でドメイン知識を共有可能にし、学習者モデルをシステム横断で持ち運べるようにし、研究成果を実装可能な形で蓄積し、さらには教育実践者が自分の目で読んで検証・修正できる形にすることを目指します。

効果的な中間表現は、次の三つの設計原理を同時に満たす必要があります。第一に 計算可能性 ――XML、JSON、OWL のようなオントロジー言語、プロダクションルールなど、機械が自動処理できる構造を持つこと。第二に 可搬性 ――特定のシステムや実装に縛られず、標準化された語彙で異なる環境で再利用できること。第三に 解釈可能性 ――専門家 (教師、認知科学者、教授設計者) がコードを読まずとも構造として読み取れ、必要なら直接修正できること。この三原理は緊張関係にあります。形式が厳密すぎれば実践者が触れず、自然言語に近すぎれば機械が解釈できない。中間表現の設計とは、この緊張のバランスを取る作業なのです。

具体例として、プログラミング教育における「for ループ」概念を中間表現で書き下したものを見てみましょう。

リスト: ループ概念の中間表現例

<Concept id="for-loop">
  <Name>For Loop</Name>
  <Prerequisites>
    <Concept ref="variable"/>
    <Concept ref="sequence"/>
    <Concept ref="iteration"/>
  </Prerequisites>
  <Components>
    <Component id="initialization"
               description="Loop variable initialization"/>
    <Component id="condition"
               description="Termination condition"/>
    <Component id="update"
               description="Loop variable update"/>
    <Component id="body"
               description="Statements to be repeated"/>
  </Components>
  <CommonMisconceptions>
    <Misconception id="off-by-one"
                   frequency="high"
                   description="Incorrect boundary in condition"/>
  </CommonMisconceptions>
</Concept>

この記述は、機械が解釈できる構造化形式 (計算可能性) で書かれ、別のシステムでも参照できる ID 体系を用いており (可搬性)、教師が「前提知識のリストに recursion が漏れている」と指摘して直接書き換えられる (解釈可能性)。三原理が同時に満たされている例です。中間表現がどのような言語で具体的にどう書かれるべきかは、第 6 章で立ち入って論じます。なお、この中間表現を軸にした研究実践の一例は、僕自身の論文 [Koike2026] でも詳しく扱っています。

エコシステム (Ecosystem)

形式化と中間表現は、それを担う 社会的な仕組み がなければ、単発の論文や孤立した製品で終わってしまいます。三つ目のテーマが エコシステム です。

健全なエコシステムには、認知科学者 (認知プロセスの理解を提供)、教育学者・学習科学者 (効果的な教授法の知見)、知識工学者 (形式化手法)、AI 研究者・エンジニア (適応的推論技術)、HCI 研究者・デザイナー (インタラクション設計)、教育実践者 (現場のフィードバック)、そして学習者自身 (実データと経験) ――これら異なる専門性を持つ人々が、共通の中間表現を通じて成果を交換し、再利用できる場が必要です。具体的な構成要素としては、標準化された中間表現、オープンに使えるツール・データセット・ベンチマーク、AIED や ITS、EDM、LA といった研究コミュニティ、教育現場での実践共有のネットワーク、そして両者をつなぐ産学連携が含まれます。

理想形として目指すのは、下図に示すような好循環です。認知科学・教育学の知見が中間表現として記述され、それに基づいて学習支援システムが開発され、システムの利用が学習データを生み、データ分析が新たな知見を生み、それが理論を精緻化して中間表現を改善し、改善された中間表現が次世代のシステムを加速する――。

flowchart TD
    A[1: 認知科学・教育学の知見] --> B[2: 形式化手法による中間表現として記述]
    B --> C[3: 学習支援システムの開発]
    C --> D[4: 学習データの蓄積]
    D --> E[5: データ分析により新たな知見を獲得]
    E --> F[6: 理論を精緻化し中間表現を改善]
    F -.好循環サイクル.-> A

図1-1: 教育 AI エコシステムの好循環

この循環が現状ほとんど存在していないこと――研究は研究室で閉じ、実践は実践で別のループを回し、両者をつなぐ中間表現の標準が事実上ないこと――こそが、本書がエコシステム構築を独立したテーマとして掲げる理由です。三つのテーマはそれぞれ独立した目標ではありません。形式化なしに中間表現は書けず、中間表現なしにエコシステムは機能しません。次に、この本書がどの学問分野からどう養分を得ているかを確認しましょう。

関連分野マップ

教育 AI 研究は学際的な領野であり、複数の分野から技術と概念を借りつつ、それらを統合する独自の工学的視点を持ちます。借りてくる先を整理すると、Science (科学)、Engineering (工学)、Philosophy (哲学・規範) の三層に大別できます。

Science:科学的基盤 にあたるのは、まず 認知科学 [Neisser1967] です。記憶・注意・知覚・言語・問題解決・推論といった人間の認知プロセスの実証的理解、特に Miller のワーキングメモリの 7±2 [Miller1956]、スキーマ理論 [Rumelhart1980]、Newell & Simon の問題解決理論 [Newell1972]、ACT-R 等の統合的認知アーキテクチャ [Anderson2007] が、形式化の出発点となります。これと並ぶのが 教育学・学習科学 [Sawyer2006] で、Piaget [Piaget1952] と Vygotsky [Vygotsky1978] の発達理論、認知的徒弟制 [Collins1989] や状況的学習 [Lave1991] といった教授理論、自己調整学習に代表されるメタ認知研究 [Zimmerman2002]、認知負荷理論 [Sweller2011] などを含みます。これらは第 2 章・第 3 章で詳述します。

Engineering:工学的手法 の中心は 知識工学 [Feigenbaum1977]; [Studer1998] で、フレーム・意味ネットワーク・プロダクションルールといった知識表現、オントロジー工学 [Gruber1993]; [Guarino2009]、専門家からの知識獲得手法を提供します。本書の形式化はこの直系です (第 4 章)。人工知能 [Russell2020] からは、シンボリック推論、機械学習、自然言語処理、そして近年特に重要となる説明可能 AI (XAI) [Gunning2019] を借ります (第 12 章)。HCI [Norman2013] は、ユーザビリティとアクセシビリティの設計原理、ゲーミフィケーション [Deterding2011] やフロー [Csikszentmihalyi1990] といった動機づけの理論を扱います (第 11 章)。

Philosophy:規範的基盤 は、しばしば工学書では省略されますが、本書では避けては通れません。何を「良い学習」と考えるか――知識伝達か、構成主義か、状況的学習か。何を教育目標とするか――知識獲得か、能力育成か、人格形成か。プライバシー、公平性、自律性、説明責任といった倫理的判断、効率性と創造性と批判的思考のあいだの価値の優先順位――形式化された学習システムは、設計者がこれらに無自覚であっても、コードに何らかの立場を埋め込まずには動きません。だからこそ、それを意識化し議論する場が必要なのです。これらは第 17 章で正面から論じます。

flowchart LR
    subgraph Sci[Science 科学的基盤]
        S1[認知科学:ワーキングメモリ、スキーマ理論]
        S2[教育心理学:学習理論、動機づけ]
        S3[発達心理学:ZPD、メタ認知]
    end
    subgraph Eng[Engineering 工学的基盤]
        E1[AI・機械学習:知識表現、推論]
        E2[データサイエンス:学習分析、EDM]
        E3[HCI:ユーザビリティ、インタラクション]
    end
    subgraph Phil[Philosophy 規範的基盤]
        P1[学習観:構成主義、状況的学習]
        P2[倫理:プライバシー、公平性、自律性]
        P3[価値:効率性、創造性、批判的思考]
    end
    Sci --> Map((教育 AI 研究))
    Eng --> Map
    Phil --> Map

図1-2: 教育 AI 研究と関連分野のマップ

これらを並列に列挙するだけでは寄せ集めに過ぎません。本書の独自性は、これらすべての知見を中間表現を介して同じ机に載せ、共通の工学的方法論で扱おうとする点にあります。次節では、本書がそれをどう順番に展開していくかを示します。

本書の構成

本書全体は、三つのテーマ (形式化・中間表現・エコシステム) を以下の順序で立ち上げていきます。

第 I 部:基礎理論編 (第 1-4 章) は、本書の科学的基盤を扱います。本章に続いて、第 2 章「認知とは何か」で認知科学の基礎、第 3 章「学習とは何か」で教育学・学習科学の基礎、第 4 章「知識とその表現」で知識工学の基礎を学びます。ここで「形式化されるべき対象」が何かが明らかになります。

第 II 部:方法論編 (第 5-7 章) では、その対象を実際に形式化する方法を扱います。第 5 章「認知プロセスの分析」、第 6 章「認知の形式化と中間表現」、第 7 章「学習課題と学習活動の設計」です。三つのテーマのうち最初の二つ――形式化と中間表現――の中核がここに集まります。

第 III 部:技術編 (第 8-12 章) は、形式化された知識の上に適応的学習環境を実装する技術です。第 8 章「知的学習支援システムの基礎」(ITS の 4 構成要素モデルの再訪)、第 9 章「学習者モデリング」、第 10 章「適応的学習支援」、第 11 章「ヒューマンコンピュータインタラクション」、第 12 章「人工知能の応用」(LLM の組み込みを含む)。

第 IV 部:評価編 (第 13-14 章) では、こうして作られたシステムをどう科学的に評価するかを論じます。第 13 章「研究の評価」、第 14 章「実験計画法と統計的分析」です。第 V 部:関連分野と応用 (第 15-16 章) で関連分野の最新動向と応用事例を、第 VI 部:倫理と未来展望 (第 17-18 章) で規範的・社会的課題と将来像を論じて全体を閉じます。三つのテーマの最後――エコシステム――は、第 V 部・第 VI 部で社会制度的側面として収束します。

まとめ

本章では、本書が扱う教育 AI / 認知学習工学という領野の中心的な問題意識と、その背景にある半世紀の歴史、そして本書を貫く三つのテーマの概要を提示しました。

中心的な問題意識は、真に効果的な個別化学習は、認知の科学的理解を計算可能かつ人間にも理解可能な形に形式化することなしには実現しない、というものです。Bloom の 2σ 問題は個別指導の効果の大きさを示しましたが、その実現を技術に委ねた半世紀のあいだに、PLATO は分岐の限界を、SCHOLAR は手続きの欠如を、Cognitive Tutor は形式化の労力という現実を、DKT と LLM は説明可能性の欠如を、それぞれ顕在化させてきました。これらの限界は互いに排他的ではなく、データ駆動と理論駆動を統合する視点のもとで、一つずつ取り扱えるはずです。

その視点を支えるのが、認知を計算可能かつ理解可能に表す 形式化、システム間で共有可能な 中間表現、研究と実践が循環する エコシステム の三つのテーマです。

次章への橋渡し

三つのテーマのうち最初の 形式化 は、まず「何を形式化するのか」がはっきりしていないと始まりません。その対象とは、人間の認知プロセスそのものです。次章からは、その対象である「認知」とは何かを、認知科学の基礎から見ていきましょう。記憶・スキーマ・問題解決・外的表現といった、形式化以前に押さえておくべき骨格が、第 2 章のテーマとなります。

さらに学ぶために

入門書

  • Woolf, B. P. (2009). Building Intelligent Interactive Tutors. Morgan Kaufmann. ITS の包括的入門書。歴史から最新技術まで網羅。
  • Bransford, J. D., Brown, A. L., & Cocking, R. R. (2000). How People Learn. National Academy Press. 学習科学の古典的名著。認知科学に基づく教育設計の原理を解説。

歴史的展望

  • Nkambou, R., Bourdeau, J., & Mizoguchi, R. (Eds.). (2010). Advances in Intelligent Tutoring Systems. Springer. ITS 研究の歴史的展開と最新動向を概観。
  • Roll, I., & Wylie, R. (2016). Evolution and Revolution in Artificial Intelligence in Education. International Journal of Artificial Intelligence in Education, 26(2), 582-599. AIED の歴史と未来を論じる重要な論文。
  • Dear, B. (2017). The Friendly Orange Glow: The Untold Story of the PLATO System and the Dawn of Cyberculture. Pantheon. PLATO 開発史の決定版。本章で触れたビッツァーとプラズマディスプレイのエピソードを含む。

オンラインリソース