【アプリガイド】生成AI(ChatGPT・画像生成等)— 子どもの利用実態
📱 生成AI — 子どもの利用と学校の課題
📊 基本データ
・ChatGPTの利用者:世界で週間3億人以上(2025年末時点)
・日本の10代のAI利用:急速に拡大中
・主な生成AI:ChatGPT、Gemini、Claude、Copilot、画像生成AI(Midjourney等)
🔍 子どもがどう使っているか
① 宿題・レポートの作成
「AIに聞けば答えが出る」。読書感想文、英作文、数学の解法…AIに丸投げする子が出ています。コピペ提出はもちろん問題ですが、「AIを使いこなす力」と「自分で考える力」のバランスが教育現場の新たな課題です。
② 画像生成AIの利用
テキストから画像を生成できるAI。創作活動に使われる一方で:
・実在の人物の画像を加工(ディープフェイク)
・クラスメイトの写真を元にした不適切な画像の生成
・SNSでの偽画像の拡散
③ AIとの「会話」
AIチャットボットに悩みを相談したり、AIキャラクターと疑似的な関係を持つ子もいます。AIが常に肯定的に応答するため、人間関係よりもAIとの会話を好む傾向が一部で見られます。
⚠️ リスクと注意点
・学びの空洞化:AIに答えを出させて「わかったつもり」になる
・ディープフェイク:友人の顔を使った偽画像・偽動画の作成(犯罪になりうる)
・情報の正確性:AIは嘘をつく(ハルシネーション)。正しい情報かの判断力が必要
・著作権・剽窃の問題:AIが生成した文章をそのまま提出する行為
・個人情報の入力:AIチャットに個人情報を入力すると、学習データに使われる可能性
🏫 学校としてどう向き合うか
文部科学省は2023年に「生成AIの利用に関する暫定的なガイドライン」を公表しました。ポイントは:
・一律禁止ではなく、発達段階に応じた活用を推奨
・AIの出力をそのまま提出させない(自分の言葉で表現させる)
・AIの仕組み・限界を教える教育が重要
・個人情報や機密情報をAIに入力しないルールを設定
👨🏫 指導のポイント
・「AIは便利な道具。でも答えが正しいとは限らない」
・AIの回答を鵜呑みにせず、自分で確認する習慣を
・ディープフェイクは「人の顔を勝手に使う」行為 → 犯罪
・宿題でのAI利用のルールを学校として明確にする
・AIを使う力(プロンプト力、批判的思考)も今後は必要になることを伝える