この記事のポイント
- AIVO Standard創業者が、GEOの信頼性に警鐘を鳴らし、特にガバナンスや財務情報で誤答が頻発すると指摘
- AIモデルは製品機能は正確に答える一方、企業の認証や財務安定性については一貫性がなく、誤情報を主張し続ける傾向がある
- EC事業者は、GEOを「唯一の解」と考えず、AIガバナンスの仕組みを構築し、規制対応できる体制整備が急務
AIエージェント時代の新たな警告

AIVO Standard's research shows that AI models are inconsistent and unreliable in answering questions about a company's finances or governance
fortune.com2026年1月13日、Fortune誌が業界に衝撃を与える記事を公開しました。AIエージェントによる購買体験「エージェンティックコマース」が本格化する中、多くの企業が注力する「GEO(Generative Engine Optimization、生成エンジン最適化)」だけでは、ブランドの評判を守れない可能性があるというのです。
警鐘を鳴らすのは、AIVO Standardの創業者Tim de Rosen氏。同社の調査により、AIモデルは製品の特徴や価格比較では一貫した回答をする一方、企業の財務安定性やガバナンス、技術認証に関しては「一貫性がなく、エラーが多い」ことが明らかになりました。
エージェンティックコマースとは、ChatGPTやPerplexityなどのAIエージェントがユーザーに代わって商品を検索し、比較し、推奨する新たな購買体験です。Googleの調査によれば、2026年はこのトレンドが加速し、McKinseyの分析は2030年までに世界で3〜5兆ドルの小売支出がこの方式に移行すると予測しています。
GEOとは何か、そして何が問題なのか
GEO(Generative Engine Optimization)は、従来のSEOがGoogleなどの検索エンジンに最適化していたのに対し、ChatGPT、Gemini、Perplexityといった生成AIプラットフォームで自社ブランドや製品が適切に表示されるよう最適化する手法です。
eMarketerの分析によれば、2026年までに検索エンジンへの依存度は25%低下し、代わりにAIプラットフォームでの情報検索が台頭します。実際、現在すでに約5人に1人のアメリカ人がAIを使って商品検索を行っています。
しかし、de Rosen氏の調査が明らかにした問題は深刻です。AIモデルは製品の機能説明や価格比較では高い精度を示す一方、企業のサイバーセキュリティ認証、ガバナンス基準、財務の健全性といった非製品情報については、回答が不安定で誤りが多いのです。
さらに厄介なのは、AIモデルが「誤った情報をダブルダウンして、正しいと主張し続ける」傾向があることです。検証を求めても、誤答を修正せず、自信を持って間違った回答を繰り返すケースが確認されています。
実例:Rampのケースと減量薬の事例
AIVO Standardの調査では、具体的な失敗事例が複数報告されています。
ビジネス経費管理ソフトウェア「Ramp」では、AIモデルがサイバーセキュリティ認証やガバナンス基準に関する質問に対し、一貫性のない回答を返しました。この問題は特に非公開企業にとって深刻です。上場企業であれば財務情報や監査結果が公開されているため、AIが正確な情報を参照できますが、非公開企業は不利な立場に置かれる可能性があります。
もう一つの事例は減量薬に関するものです。AIモデルはリスク要因を列挙するだけでなく、免責事項が表示されているにもかかわらず、主観的な推奨を行いました。これは「適格性、リスク認識、そして選好を形成する」行為であり、規制当局の監視対象となる可能性があります。
IBM-NRFの共同調査によれば、45%の消費者がAIを購買プロセスで活用していますが、88%が「情報の出典を明確にしてほしい」、87%が「検証済みのレビューを求める」と回答しています。消費者もAIの情報の信頼性に懸念を抱いているのです。
EC事業者への影響と対応策
この状況はEC事業者にとって何を意味するのでしょうか。
まず、GEOは「科学というより芸術」であるという認識が重要です。de Rosen氏は、チャットボットの回答を確実にコントロールできると主張するベンダーを信用すべきではないと警告しています。特に製品以外の情報については、信頼性が担保されていません。
次に、AIガバナンスの仕組み構築が急務です。現在、多くの企業はAIが提供する情報と、それに基づく判断、そして最終的な意思決定の境界を管理していません。どのようなプロンプトが使われ、モデルが何を返し、それがどう推奨や決定につながったかを追跡するシステムがないのです。
PwCの分析によれば、金融やヘルスケアといった規制産業では、この透明性の欠如は特に大きなリスクとなります。規制当局の審査に耐えられる記録保持体制が必要です。
一方で、前向きな対応策もあります。Modern Retailの報道によれば、OpenAIはTarget、Instacart、DoorDashと提携し、ChatGPT内で直接購入できる機能を展開しています。こうしたプラットフォームとの直接連携により、自社の正確な情報を確実に提供できます。
また、Googleは「Universal Commerce Protocol(UCP)」という新たなオープン標準を導入し、プラットフォーム横断でのエージェンティックコマース対応を推進しています。これにより、構造化された商品フィードを通じて、AIエージェントに正確な情報を提供できるようになります。

Google Universal Commerce Protocol(UCP):エージェンティックコマースの新標準
Googleが発表したUCPは、Shopify、Walmart等20社以上と共同開発した、AIエージェント時代のコマース標準プロトコルです。
記事を読む →信頼構築も鍵となります。AIエージェントの商品推奨の質が、最終的にどのプラットフォームが消費者の信頼を得るかを決定します。National Association of Wholesaler-Distributorsによれば、ブランドロイヤルティや可視性、コンバージョンは、システムがAIエージェントに対して価値をどれだけうまく伝えられるかに依存するようになります。
まとめ
エージェンティックコマースの波は確実に到来しており、GEOへの注目も高まっています。しかし、AIVO Standardの調査が示すように、GEOだけに頼るのは危険です。特にガバナンス、財務、認証といった非製品情報では、AIモデルの回答は信頼性に欠けます。
EC事業者が取るべき行動は明確です。第一に、GEOを過信せず、複数のチャネルでブランド情報を管理すること。第二に、AIガバナンスの仕組みを構築し、プロンプト、モデルの応答、意思決定プロセスを追跡できる体制を整えること。第三に、GoogleのUCPのような業界標準に準拠し、構造化データを通じて正確な情報を提供すること。
今後注目すべきは、各AIプラットフォームの品質管理体制の進化と、規制当局の動向です。消費者の信頼を勝ち取れるプラットフォームが、エージェンティックコマース時代の覇者となるでしょう。




