📱 アプリ別ガイド

【アプリガイド】生成AI(ChatGPT・画像生成等)— 子どもの利用実態

👤 全教員・ICT担当 ⏱ 読了5分

📱 生成AI — 子どもの利用と学校の課題

📊 基本データ

・ChatGPTの利用者:世界で週間3億人以上(2025年末時点)
・日本の10代のAI利用:急速に拡大中
・主な生成AI:ChatGPT、Gemini、Claude、Copilot、画像生成AI(Midjourney等)

🔍 子どもがどう使っているか

① 宿題・レポートの作成
「AIに聞けば答えが出る」。読書感想文、英作文、数学の解法…AIに丸投げする子が出ています。コピペ提出はもちろん問題ですが、「AIを使いこなす力」と「自分で考える力」のバランスが教育現場の新たな課題です。

② 画像生成AIの利用
テキストから画像を生成できるAI。創作活動に使われる一方で:
・実在の人物の画像を加工(ディープフェイク)
・クラスメイトの写真を元にした不適切な画像の生成
・SNSでの偽画像の拡散

③ AIとの「会話」
AIチャットボットに悩みを相談したり、AIキャラクターと疑似的な関係を持つ子もいます。AIが常に肯定的に応答するため、人間関係よりもAIとの会話を好む傾向が一部で見られます。

⚠️ リスクと注意点

学びの空洞化:AIに答えを出させて「わかったつもり」になる
ディープフェイク:友人の顔を使った偽画像・偽動画の作成(犯罪になりうる)
情報の正確性:AIは嘘をつく(ハルシネーション)。正しい情報かの判断力が必要
著作権・剽窃の問題:AIが生成した文章をそのまま提出する行為
個人情報の入力:AIチャットに個人情報を入力すると、学習データに使われる可能性

🏫 学校としてどう向き合うか

文部科学省は2023年に「生成AIの利用に関する暫定的なガイドライン」を公表しました。ポイントは:

・一律禁止ではなく、発達段階に応じた活用を推奨
・AIの出力をそのまま提出させない(自分の言葉で表現させる)
・AIの仕組み・限界を教える教育が重要
・個人情報や機密情報をAIに入力しないルールを設定

👨‍🏫 指導のポイント

・「AIは便利な道具。でも答えが正しいとは限らない」
・AIの回答を鵜呑みにせず、自分で確認する習慣を
・ディープフェイクは「人の顔を勝手に使う」行為 → 犯罪
・宿題でのAI利用のルールを学校として明確にする
・AIを使う力(プロンプト力、批判的思考)も今後は必要になることを伝える

← 前の記事

【アプリガイド】オンラインゲーム(荒野行動・フォートナイト等)

← コンテンツ一覧に戻る