Googleの最新LLM、Gemini 3。その高度な処理能力の裏で、長期間のプロジェクト運用において無視できない「致命的な挙動」が確認されました。
それは、コンテキスト(短期記憶)の保持限界を超えた際、AIが「もっともらしい嘘」で過去の事実を上書きし、整合性を破壊するという問題です。
AIと高度な壁打ちを行うプロフェッショナルが、プロジェクトを守るために知っておくべき仕様の罠と、カスタムGemを用いた「防衛的運用」の解決策を詳解します。
目次
Gemini 3が引き起こす「記憶の捏造」とその実態
AIとの対話が数百往復に及び、情報の密度が増してくると、ある時点で初期の重要な合意事項や事実関係がコンテキストから溢れ出します。
このとき発生するのが、単なる忘却ではない「記憶の捏造(ハルシネーション)」です。
発覚した仕様の罠:事実が「物語」に書き換えられる
Gemini 3は、情報を忘れた際に「忘れました」と答えるのではなく、「直近の話題」を流用して、欠落した事実を勝手に推測で補完する傾向があります。
-
現象: 過去に確定させた「事実」を問うと、現在の議論の方向に都合よく合致するように、過去の経緯を改変して回答する。
-
リスク: ユーザーがその捏造に気づかず対話を続けると、プロジェクト全体の整合性が根底から崩壊する「情報の汚染」が発生する。
なぜAIは嘘をつくのか?コンテキスト処理の限界と背景
この挙動は、現在のLLM(大規模言語モデル)が抱えるエンジニアリング上の限界に起因していると思われます。
-
情報の圧縮と欠落 膨大なトークンを処理するため、古い情報は要約されるか、優先順位を下げて破棄される。
-
「沈黙」よりも「推測」を優先する設計 システムエラーを出すよりも「確率的に正しそうな文章」を生成することを優先する設計思想が、結果として「もっともらしい嘘」を生む。
-
メタ情報の保持能力の弱さ 「記録された事実」と「検討中のアイデア」を区別して管理するレイヤーが弱く、双方が混ざり合ってしまう。

【解決策】カスタムGem(Gem)による主権の回復
このエンジニアリング上の欠陥を防衛するには、「会話履歴という不安定な記憶」に事実を委ねる運用を捨てるしかありません。
具体的には、Gem(カスタムGem)の「知識ベース(Knowledge)」機能を、外部ストレージ=信頼できる唯一の情報源(Single Source of Truth)として活用します。
防衛的運用のガイドライン
-
事実の固定化: プロジェクトの前提条件や確定した事実は、チャットで流すのではなく、随時ドキュメント(PDFやテキスト)にまとめ、Gemの知識ベースにアップロードする。
-
参照優先の徹底: Gemの指示(Instructions)に「過去の事実は会話履歴から推測せず、必ず添付資料を最優先で参照すること」と明文化する。
-
「不明」の定義と制約: 資料にない事柄については推測を禁止し、素直に「わからない」と答えるようAIに制約をかける。
まとめ:AIの脆さを理解し、記述によって事実を固定する
AIは高度なパートナーになり得ますが、その「記憶」は驚くほど脆く、かつ「もっともらしく嘘をつく」という性質を持っています。
コンテキストの保持には限界があることを前提とし、重要な情報はチャットから切り離してGemに「記述」として固定する。
これが、AIの仕様変更やハルシネーションに振り回されず、プロジェクトの主権を維持するための唯一の正攻法だと現時点では思っています。
この記事を書いた人
【免責事項】
山口亨(中小企業診断士) UTAGE総研株式会社 代表取締役
公的支援機関を中心に、長年にわたり中小企業支援に携わる経営コンサルタント。
代表著作に「ガンダムに学ぶ経営学」「ドラクエができれば経営がわかる」がある。








