【寄稿】教学DXを加速させる経営層のAI活用/gmoriki代表 森木銀河

gmoriki代表

森木銀河

民間企業にて生成AI活用推進に従事する傍ら、個人事業主として大学・教育機関のAI人材育成を手がける。私立・国立大学職員としての実務経験を持ち、大学という組織特有の文化や課題に精通していることが強み。教員・職員双方を対象とした研修企画、登壇、アドバイジング等、現場に即した実践的なAI活用支援を行っている。




【1】大学の現場における生成AIの活用

 大学における生成AIの活用は、一部の大学では既に試行の段階を越え、具体的な成果を出し始めている。例えば学生支援の分野では、弘前大学が履修登録や証明書発行等の手続きを24時間案内できる生成AIチャットボット(LINE版)を試験導入し、埼玉大学では全学規模でAIチャットボットを導入して卒業証明書の発行手続き案内等に自動対応している。学修データの活用では、鳴門教育大学がAIを組み込んだ学修可視化スマホアプリを開発し、学生一人ひとりに個別のフィードバックを返す仕組みを整えている。教職員の業務効率化でも成果が見え始めている。東北大学ではオンライン会議の要約作成時間が約4分の1に短縮され、北海道大学ではMicrosoft 365 Copilotの業務利用試行において職員1人あたり月平均15.6時間の業務時間削減が報告されている。名古屋大学(東海国立大学機構)もMicrosoft 365 Copilotを用いて議事録作成やメール要約の効果検証を進めている。

 さらに踏み込んだ取り組みとして、麻布大学では学長の指示を起点に教務DXプロジェクトが立ち上がり、AI機能付きチャットボットと保護者向けポータルサイトを実現した。学生・保護者の体験価値にまで踏み込んだDXを、経営層のメッセージとプロジェクト運営のスタイルを通じて実現した点で、同大学の事例は示唆に富む。

 生成AIの活用は学生支援・教育支援・事務効率化のいずれの領域でも着実に広がっている。しかし先行事例は氷山の一角に過ぎない。AI活用に踏み出している大学及びAI活用によって得られた価値を実感できている大学は少数派である。ツールを導入し、研修を実施し、ガイドラインも出した大学であれど、AI活用が成功するとは限らない。原因として語られるのは、現場の教職員のスキル不足やAIへの抵抗感だが、筆者が複数の大学と関わるなかで感じていることは、もっと手前の問題である。経営層レベルでの経験と言語化の欠如である。

 具体的には、経営にどのようにAIを活用できるのか、どのような意思決定をAIで支えたいのか、そこで得られた知見を教学や経営にどう反映するのか、リスクや説明責任を誰がどこまで負うのかといった根本的な論点が経営層のなかで十分に議論されていないケースが多い。結果として、現場にはAIを使えという号令だけが届き、スタンスも責任の所在も曖昧なままの“丸投げDX”が生まれてしまう。AI活用によるDXが停滞している原因は、現場のリテラシー以前に、経営の意思決定とAIの関係が設計されていないことに起因している可能性は高い。

【2】先に変わるべきは「経営層のAI活用」である

 AIを使うか使わないかに拘らず、学生・保護者・教職員に対してなぜその判断をしたのかを説明する責任は、経営層・管理職が負っている。にも拘らず、AIに対するスタンスを曖昧にしたまま現場にまず試してみてほしいと委ねてしまえば、誰が責任を取るのかがグレーなまま残り、現場は動きにくくなる。

 加えて、AIを活用しないこと自体がリスクとなる時代に入りつつある。例えば、保護者向けポータルで成績や学費情報を即座に確認できる大学と、紙の郵送を続ける大学では、保護者が感じる安心感や利便性に明確な差が生まれる。AIチャットボットで履修相談や証明書発行の手続きを24時間受け付ける大学と、窓口対応のみの大学では、学生の時間的・心理的負担が異なる。こうした体験価値の差は、偏差値や就職率のように数値化されにくいが、受験生・保護者の大学選択や在学生の満足度に確実に影響する。目に見えにくい領域だからこそ、大学間の差は静かに、しかし不可逆的に広がりつつあるのである。

 さらに見過ごせないのが組織文化への影響である。大学の経営層がAIを自ら使わないままでは、この業務でどこまでAIに任せてよいのかという現場の迷いは解消されない。経営層が使い、その過程を見せることで初めて、職員はここまでやっていいのだと安心できる。その経験やナレッジが学生・保護者に対するAIサービスを提供するための心理的基盤にもなりうる。

 AI活用の是非ではなく、AI活用に対して誰がどのスタンスで責任を負うのかが今問われているのであり、そのスタンス設計は経営・管理職にしか担えない仕事である。

【3】経営層のAI活用スタンス3点セット

 経営層・管理職に限って高度な技術スキルが必要になることはない。まずはAIを自分の判断業務のなかで使い、その使い方を通じて組織にスタンスを示すことである。ここでは3つの行動を、具体的な場面とともに提案したい。

①自分の意思決定でAIを使い、「赤ペンを入れる」

 経営会議の前に、議題の論点整理をAIに頼んでみる。例えば「来年度の教学マネジメント方針について、想定される論点と選択肢を整理してほしい」と投げると、それなりに筋の通った論点リストが返ってくる。しかし重要なのはその出力をそのまま使うことではない。「この前提は本学には当てはまらない」「この選択肢は現場感覚とずれている」「ここはもっと慎重に書くべきだ」。そうやってAIの案に赤ペンを入れていく過程で、自分自身の判断基準や譲れない軸が浮かび上がってくる。AIが出すそこそこ筋の通った案は、完成品ではなく、自分の思考を整え直すための土台である。学長メッセージの草案でも、改革案の選択肢出しでも同じことが言える。AIの案と自分の判断の差分を認識し、言語化する。その差分こそが、管理職としてのスタンスそのものになる。

 AIが生成した文章に赤ペンを入れずにその文章の体裁や出力したことそのものを誇る人は、自らの思考と学習を放棄する人にほかならない。判断基準の言語化と適用を意識したAI活用を推奨したい。

②「何をAIに任せないか」を、実感から明示する

 ①を続けていると、ここはAIに任せられるという領域と自分で考えたいという領域の境界が体感的に見えてくる。例えば、学生への通知文のドラフトをAIに書かせたとき、この言い方では学生の不安に寄り添えていないと感じる箇所が出てくる。保護者向けの説明文で、この表現では信頼を損ねると思う一文がある。そうした違和感こそが、人が担い続けるべき領域、即ち価値判断、一人ひとりへの配慮、関係者との対話を指し示している。

 AIに任せないと宣言するだけでは抽象的すぎる。自分でAIを使い、その出力に違和感を覚えた経験があって初めて、ここから先は人が判断するという線引きにリアリティが生まれる。

③そのプロセスを組織に開示する

 例えば、経営会議の冒頭で「今回の方針案は、まずAIに3つの案を出させた。採用したのはこの案で、残り2つを採用しなかった理由はこうだ」と共有する。あるいは、部下に「この文書のここまではAIに任せたが、この部分は自分で書き直した。理由はこうだ」と伝える。こうした開示があることで、現場はどこまでAIに頼んでいいのかという迷いから解放され、自分達なりの使い方を模索し始めることができる。

 この3点セットは、いわば管理職が自分の仕事のなかでAIとの境界線を引き、それを組織に見せ続ける行為である。スタンスの表明とは、方針文書を出すことではない。日々の判断のなかで、AIに何を任せ、何を自分で引き受けたかを具体的に語ること、そして大学として・経営層として持つ判断基準に由来する“戦略”を提示することである。

【4】AI活用のスタンスが定まれば、教育と学生支援はこう変わる

 経営層のスタンスが明確になったとき、教育・学生支援の現場にはどのような変化が期待できるだろうか。

 ここまではAIに任せてよいという線引きが組織として共有されれば、教職員は安心して業務にAIを組み込める。

 例えば、学生からの定型的な問い合わせ対応をAIチャットボットに任せることで、窓口職員は一人ひとりの事情に応じた相談対応に時間を割けるようになる。学修データの一次分析をAIに委ね、教員はその結果をもとにした個別フィードバックや対話に集中する。AIが下ごしらえを引き受けることで、人にしかできないケアや判断に時間とエネルギーを振り向けられるようになるのである。

 さらに、経営層がAI活用のプロセスを開示し続けることで、組織全体に試してみてよいという文化が醸成される。現場から生まれた小さな実験が、部署を超えて共有され、教学マネジメントの改善サイクルに組み込まれていく。AIの導入が目的なのではない。AIを媒介にして、教育と経営を結び直す対話が生まれること。それが教学DXの本来の姿である。

【5】「第一稿」から始めよう

 教学DXを現場に頑張らせる施策としてではなく、経営の意思決定と学修デザインを結び直す組織変革のプロジェクトとして捉え直すことを提案したい。その第一歩は、経営層・管理職自身がAIを相棒にし、そのプロセスを組織に開示することから始まる。

 もっとも、本稿で提案した3点セットは経営層が自らの業務でAIを活用するスタンスを組織に示すというオペレーションレベルの第一歩にすぎない。AI活用には、なぜこの領域でAIを活用するのか、大学のどの価値をAIで守りどの価値を伸ばすのかという戦略レベルの問いから、AI活用をどのように組織の業務プロセスに組み込み継続的に評価・改善していくかという戦術レベルの設計まで、粒度も観点も幅がある。本稿はそのうちの一断面を示したにとどまる。

 そして、その前提として不可欠なのが、入力データがモデルの学習に使用されないセキュアなAI環境(組織契約のMicrosoft 365 Copilot等)の整備と、どの範囲の情報をAIに入力してよいかを定める運用ルールの策定である。セキュアな環境であれば一定の機密情報の入力を許容する大学もあれば、機密情報の入力を一律に禁止する大学もある。その線引きを組織として決めること自体が、経営層にしかできない意思決定であり、AI活用に対するスタンスの表明でもある。土台を整えたうえで、次の一歩に進みたい。

 大学の学長・理事・管理職の方々に問いたい。直近1週間で、どのような場面でAIに相談しただろうか。そのプロセスを、学内でどれだけ共有できているだろうか。自大学の教学DXロードマップに、自分自身のAI活用はどのように位置づけられているだろうか。

 次の経営会議の前に、1つだけAIに相談してから臨むテーマを決めてみてほしい。AIに複数案を出させ、そのなかから採用した点と採用しなかった点を自分の言葉でメモに残す。そのメモこそが、貴学におけるAI活用のスタンスの第一稿となるはずである。





【参考文献】

  • 弘前大学「【在学生対象・テスト公開】学生生活サポート用『ひろりん 生成AIチャットボット(LINE版)』の試験導入について」弘前大学公式サイト、2025年12月16日。https://www.hirosaki-u.ac.jp/109755/(2026年2月8日閲覧)
  • チャットプラス株式会社「埼玉大学 全学でAIチャットボットを導入。学生、教職員、外部の方等の多様なお問い合わせにチャットボットで対応。」ChatPlus導入事例。https://chatplus.jp/customers/saitamauniversity/(2026年2月8日閲覧)
  • 国立大学法人鳴門教育大学「教員を目指す学生のための学修可視化アプリ『セルデザ』を開発」PR TIMES、2025年3月3日。https://prtimes.jp/main/html/rd/p/000000004.000152199.html(2026年2月8日閲覧)
  • 鈴木翔太ほか「東北大学における生成AIの実践的活用」『デジタルプラクティス』Vol.6 No.1、情報処理学会、2025年1月。https://www.ipsj.or.jp/dp/contents/publication/61/TR0601-07.html(2026年2月8日閲覧)
  • 北海道大学DX業務推進室「Microsoft 365 Copilotの効果測定結果を公開します」北海道大学事務DXメディア、2025年8月6日。https://mx.general.hokudai.ac.jp/posts/RmvQkZ2F(2026年2月8日閲覧)
  • 青木学聡「大学事務効率化と高度化に向けた生成AIの活用検討」第7回教育機関DXシンポ発表資料、国立情報学研究所、2025年10月7日。https://www.nii.ac.jp/event/upload/20251007_aoki.pdf(2026年2月8日閲覧)
  • 東北大学 大学ICT事例集「麻布大学が教務DX推進組織を発足、AI機能付きチャットボットと保護者向けポータルサイトを導入」2026年1月15日。https://case.dx.tohoku.ac.jp/azabu-01-jirei/(2026年2月21日閲覧)


【印刷用記事】
【寄稿】教学DXを加速させる経営層のAI活用/gmoriki代表 森木銀河