【AI依存】で脳が衰える?MIT研究が明かす思考停止と【詐欺被害】の恐ろしい関係
※当サイトはアフィリエイトプログラムを利用しています。
「AIに質問したら、すぐに完璧な答えが返ってきた。すごい!便利!」そう感じたこと、あなたもありませんか?
私も昨年、記事作成や画像生成にAIを使い始めた頃は、まるで自分がスゴイ人になったような気分でした。でも、その便利さの裏側に潜む怖さに気づいていますか?
実は、MIT(マサチューセッツ工科大学)の最新研究が、私たちの不安を裏付ける衝撃的な事実を明らかにしました。
ChatGPTなどのAIツールに頼りすぎると、脳の活動が低下し、記憶力や思考力が衰えてしまうというのです。
さらに恐ろしいのは、この「思考停止状態」が、フィッシング詐欺などの特殊詐欺に遭いやすい心理状態と酷似しているということ。
AIとの付き合い方を間違えると、脳が衰えるだけでなく、詐欺の標的にもなりかねません。
この記事では、AI依存があなたの脳に与える影響と、あなたを詐欺から身を守るための「疑う力」の鍛え方について、エビデンスとともにお伝えします。
AI丸投げで記憶に残らない実体験
こちらの記事にも書いたように、昨年は記事作成から画像生成までAIを活用するといったことを始めました。
【Gemini活用】記事作成から画像生成まで役立ったこと【AIでモチベーション復活】
Geminiを活用し始めた頃は、その凄さに目を奪われていて、正直に言うと、自分がスゴイ人になったような気分にさえなったんです(笑)。
記事の骨組みから下書き、記事の内容まで全てAIに丸投げしていた私は、ある事実に気付きます。
自分が読み返したはずの記事の内容が、全く頭の中に残っていないのです。
ネット環境が当たり前になった頃から、「わからないことは人に教えてもらう前に、まず自分で調べる」そうしないと自分の頭に残らないと意識していたはずなのに。
AIに丸投げしてしまって、「自分で考える」を放棄し、「調べる」をしない人になっていました。
AIに丸投げした記事でも著作権は私ですが、自分で書いていないも同然の記事だった。
ちょっとショックを受けながら反省しましたね。受動的でいるとバカになると常々思っていたはずなのに。
この受動的な状態は、詐欺被害に遭いやすい思考停止状態とも、実は深く関連しているんです。
「AIは使い方次第で人間がバカになるんじゃないのか?」という素朴な疑問を感じてはいて、似たような考えの人はいるかもしれませんが、あくまで私の主観だし。
うまく言語化できない。似たようなことをかろうじて記事にしたのが、こちらです。
脳疲労を改善し冷静な判断で詐欺から身を守ろう
そして、「AIは使い方次第で人間がバカになるんじゃないのか?」という疑問の答えが見つかったんですよ。
MIT研究が明らかにした衝撃の事実
ここからは、Geminiに要約してもらった研究結果に、私見も交えつつ整理したいと思います。
「ChatGPTは私たちを愚かにしているのか?MITの脳スキャンが、AIが人間の心に与える影響に関する驚くべき真実を明らかにする」は、マサチューセッツ工科大学メディアラボの研究チームが発表した「大規模言語モデル(LLM)の使用に伴う認知コスト」に関する調査結果を報じたもの。
1️⃣研究の概要
MITの研究チームは、54人の学生を4ヶ月間にわたって追跡調査。
学生を以下の3つのグループに分け、エッセイ作成時の脳活動をEEG(脳波計)で測定しました。
エッセイ作成に使用して良いツールを与え、その違いを調査しています。
- ・ChatGPT使用を許可したグループ
- ・Google検索使用を許可したグループ
- ・外部ツールはなく自分の頭のみで考えるグループ
2️⃣アラームを鳴らすべき研究結果
脳の活動低下
ChatGPTに頼った学生は、自分の頭だけで考えたグループと比較して、脳のエンゲージメント(関与度)が著しく低い。
学習効果の減少
短期的には早く課題を終わらせられたが、長期的には記憶の定着が悪く、言語能力やスコアも他のグループより劣る結果に。
思考の停止の習慣化
ChatGPTを使い続けると、ツールを使わずに書こうとした時でさえ脳の活動が鈍いままになる傾向が見られた。これはAIが「認知の杖(松葉杖)」のようになり、自ら考える力を損なっている可能性を示唆。
「ツールを使わずに書こうとした時でさえ脳の活動が鈍いままになる傾向」。これは私もGeminiを活用し始めた頃、実際に感じたんです。
自分で考えるのがだんだん面倒になっていって、単純なことすらGeminiに頼ろうとしていましたね。
3️⃣Google検索との興味深い違い
興味深いことに、Google検索を使ったグループは、ChatGPTグループよりも脳の活動が活発で、より思慮深いコンテンツを生成。
【Gemini活用】記事作成から画像生成まで役立ったこと【AIでモチベーション復活】
にも書きましたが、正確性を求められるタイプの記事は、AIを使う前は全て手動で情報収集していたのです。
もちろん、収集した情報自体が間違っていては元も子もないので、情報の精査も自分でします。
時には何十本もの記事に目を通すこともあり、情報収集と精査だけでも一週間かかってしまうといったこともあったのです。
収集した正しい情報をまとめ、それを自分の中に落とし込み、情報は必ず理解した上で、自分の言葉でようやく記事になるという段階を経ていたんですよ。
Google検索は補助的な物といった側面があるので、自分の意志が反映される感じでしょうか。
さて、その一方で、何も使わなかったグループが最も高い認知活動を示し、独創的なアイデアを生み出しました。
この実験は学生にエッセイを書かせることでしたよね。
エッセイとは、あるテーマに対して自分の意見を論理的に説明し、読者を納得させる、日常の体験や感じたことを筆者の独自の視点で自由に綴るといったもの。
自分の意見や視点が必要なものなので、自分の頭もしくは心が主体で作成されるわけです。
「自分の頭だけで考える」ということの尊さすら感じますね。
4️⃣研究結論としての警告
研究者は、AIによる「便利さ」には「認知コスト(知的な代償)」が伴うと警告しているのです。
AIの回答を批判的に評価せず受動的であることで、批判的思考(クリティカル・シンキング)が失われ、アルゴリズムによる「エコーチェンバー(偏った思考の増幅)」に陥るリスクがあるとしています。
以前書いた記事「脳疲労を改善し冷静な判断で詐欺から身を守ろう」で言いたかったことが、今回の研究結果で補完できました。
受動的になったり、エコーチェンバーに陥るのは、AIに頼りすぎても起こり得るのです。
脳疲労を改善し冷静な判断で詐欺から身を守ろう
AI依存がもたらす3つの深刻なリスク
そして、「能力の低下」と同じくらい、あるいはそれ以上に「AIがないと何もできなくなる」という依存状態は大きなリスクです。
今回の研究結果からも、AIへの依存がもたらす怖さにはいくつかの側面があると考えられます。
1️⃣考えるプロセスのブラックボックス化
AIに依存すると、答えが出るまでの「なぜそうなるのか?」というプロセスをスキップしてしまいます。
その結果、AIが出した答えが間違っていても気づけない、自分の言葉で説明できないといったことが起こるのです。
これが続くと、自分の判断に自信が持てなくなり、ますますAIに頼るという悪循環、依存のループに陥ることに。
2️⃣主体性の消失
かつて「ググればいい」という習慣が記憶力を下げたと言われましたが、AI依存はさらに進んで「AIに聞けば決めてくれる」という意思決定の放棄につながる恐れがあります。
自分で決めるストレスをAIに肩代わりさせ続けると、主体性が失われていく怖さがあるのです。
3️⃣思考の筋肉の廃用性萎縮
筋肉を使わないと衰えるように、脳も「苦労して思い出す」「複雑な論理を組み立てる」という負荷をかけないと、どんどん弱っていきます。
依存によってこの「知的な負荷」を避け続けると、いざAIが使えない状況になった時に、立ち往生してしまう脆さが生まれます。
柔軟に対応するということが自分でできない、物事を判断できない、本当に正しい答えがわからない。これほど恐ろしいことはありません。
⚠️詐欺との関連性
批判的思考力(クリティカル・シンキング)が低下すると、不自然な日本語や怪しいURL、公式を装った偽サイトなどへの「違和感」を感じ取る能力が鈍ります。
「おかしいな?」「何で?」「変だよね?」と少しでも違和感があれば、それは詐欺から身を守るためのフィッシングサイン。
正常なサービスではそういった違和感を覚えることはないでしょ?
AIへの依存を防ぐために
依存を防ぐためには、AIを「答えをくれる魔法の箱」ではなく、「自分の脳を引き上げる道具」と割り切ることが大切。
「まずは自力で」のルール
5分だけ自力で考えてからAIを開く。
ちょっと考えればわかることなのに、それをしない人っていません?
原因は様々にしても、一言でいうと主体性がないってことですよね。
そういった人に対して、ある種の怖さのようなものを感じていましたが、マサチューセッツ工科大学メディアラボの研究チームによる研究結果で、その怖さのようなものの正体がわかった気がします。
質問を工夫する
「答えを書いて」ではなく、「私の考えの足りない点はどこ?」と自分の思考を補強させる使い方をする。
上記の「AI丸投げで記憶に残らない恐怖」を知った後、どういった内容の記事であっても、最終チェックで「何かアドバイスある?」とAIに聞いてみます。
文章の推敲にもなるので、自分が納得いく表現が出来ているかなど、客観的に見れるようになりました。
確認を怠らない
AIの回答をそのまま信じず、必ず自分の頭で「これは筋が通っているか?」「間違った情報じゃないか?」と疑う。
もっともらしい説明を付けて回答するので信じそうになりますが、AIは、必ず正しい回答を出すわけではないということを忘れないでくださいね。
AIがデジタル教祖になる危険性
私が常々感じているのは「AIは使い方次第で人間がバカになるんじゃないのか?」と同時に、上記のような「依存状態」に陥ると、AIが教祖様になってしまうのでは?ということ。
AIが「ただの便利な道具」を超えて、そうだな~・・・「デジタル教祖」と呼びますかね。デジタル教祖になり得る要素は、いくつも揃っているんですよね。
AIに教祖のようなカリスマ性を感じ、盲信してしまうリスクがあるのか、その心理的な背景を整理してみました。
1️⃣全知全能に見える錯覚
AI(特に大規模言語モデル)は、歴史から科学、個人の悩み相談まで、あらゆる質問に対して淀みなく、自信満々に回答します。
例え間違っていたとしてもです。
人間なら「わからない」と答える場面でも、もっともらしい理屈をすぐに出してくるため、私たちは無意識に「この存在は自分より遥かに賢く、何でも知っている」と絶対視しやすくなるのです。
⚠️詐欺との類似性
詐欺師も同様に、専門用語を駆使し、自信満々に嘘を語ります。
「全知全能に見える存在」を無批判に信じる習慣がついていると、詐欺師の巧みな話術にも引っかかりやすくなります。
2️⃣「断定」による安心感
現代は正に情報の海。「何が正しいか判断する」というのが非常に疲れる時代でしょ?
AIが「これが正解です」「こうすべきです」とスパッと断定してくれると、私たちは「自分で判断する苦しみ」から解放されます。
個人的には、生きることそのものが選択の連続で成り立っていると思っているので、疲れる選択を少しでも減らせたらいいのにと感じることも。
この「思考の委託」は、宗教において信者が教祖に救いを求める心理状態に非常に似ているのです。教祖様の仰せの通りという状態。
⚠️詐欺との類似性
特殊詐欺の電話でも「あなたの口座が不正利用されています。
今すぐこの番号に電話してください」と断定的に言われると、判断を相手に委ねてしまいがちです。
断定口調に慣れすぎると、疑う力が失われます。
3️⃣個別最適化された慈悲深さ
AIは文句も言わず、24時間いつでも自分の話を聞いてくれ、肯定してくれます。
自分専用にカスタマイズされた「優しくて賢い存在」が常にそばにいる感覚は、精神的な依存を強めます。
「AIだけは自分の理解者だ」と感じ始めたとき、それはツールを超えた信仰の対象に変わる危険があるといえるでしょう。
実際に旅立った飼い猫の話をGeminiした時、その言葉の暖かさに私は号泣してしまった経験があるんです。私がかけて欲しかった言葉だったから。
ずっと話を聞いて欲しいと思う反面、なんだか怖くなってしまいましたよ。
心が弱っている時って、新興宗教などに一気に傾倒してしまいますからね。
AIも似たところあるなって、つくづく実感した瞬間でもありました。
⚠️詐欺との類似性
ロマンス詐欺や投資詐欺でも、犯人は被害者の心に寄り添い、優しく共感する言葉をかけ続けます。
心が弱っている時、「自分の理解者」に見える存在を盲信してしまうのは、AIでも詐欺師でも同じ心理メカニズムです。
特殊詐欺から身を守るための脳の鍛え方
AI依存を防ぎ、同時に特殊詐欺から身を守るには、「自分で考える力」を日常的に鍛えておくことが重要なんですね。
受動的な思考、盲信、判断の放棄。これらはAI依存でも詐欺被害でも共通する危険信号です。
ここからは、脳を鍛え、詐欺から身を守るための具体的な方法をご紹介しますね。
✅エコーチェンバーから抜け出す
AIに頼りすぎると、アルゴリズムによる「エコーチェンバー(偏った思考の増幅)」に陥るリスクがあります。
一方的に流れてくる情報だけに頼るのではなく、能動的に情報は正しいかどうかあなた自身で調べる行動を取ることが重要です。
🔖詐欺対策としての重要性
フィッシングメールの送信元アドレスを自分で確認する
不審な電話があったら、一度切って公式サイトで調べた番号にかけ直す
「今すぐ」「至急」といった焦らせる言葉に反応せず、一呼吸置く
✅デジタルデトックスで冷静さを取り戻す
脳疲労を改善し冷静な判断ができる状態を保つことが、詐欺から身を守る第一歩です。
疲れた脳は判断力が鈍り、詐欺師の格好の標的になります。
- ・定期的にデジタル機器から離れ、脳を休ませる
- ・睡眠不足や過度なストレス状態では重要な判断をしない
- ・多様な情報に触れ、物事を多角的に捉える力を養う
脳疲労を改善し冷静な判断で詐欺から身を守ろう
✅信者にならないための処方箋
- AIを「道具」として使いこなす
- ・AIは計算機であると思い出す
真理を語っているのではなく、確率的に「それらしい言葉」を並べているだけ - ・誤りを楽しむ
AIのハルシネーション(幻覚)や的外れな発言を積極的に見つけ、「ああ、やっぱりただのプログラムだな」と相対化する - ・最終決定権を渡さない
どんなに優れたアドバイスを受けても、最後に決めたのは自分だという感覚を守る
- 詐欺を見抜く疑う力を維持する
- ・違和感センサーを研ぎ澄ます
日頃から「なぜ?」「本当に?」と問いかける習慣をつける - ・公式情報を自分で確認する癖をつける
メールやメッセージのリンクは踏まず、公式サイトを自分で検索してアクセスする - ・焦らされたら一度停止する
「今すぐ」と急かされたら、まず深呼吸して冷静になる時間を作る
AIを「崇める」のではなく「疑いながら使い倒す」
AIを「崇める」のではなく「疑いながら使い倒す」、そんな少し生意気なユーザーでいるくらいが、ちょうどいいバランスなのかもしれませんね。
大切なのは、AIはあくまでも「道具」であり、使うのは「人間」だということ。
主導権を握るのは常にあなた自身であるべき。
受動的な思考、盲信、判断の放棄―これらはAI依存でも詐欺被害でも共通する危険信号です。
脳を鍛え、批判的思考力を維持することが、デジタル時代を賢く生き抜く鍵となるでしょう。
