• ゲオ

オリジナルのGEOリサーチAIモデルはどのようにソースを選ぶか

  • Felix Rose-Collins
  • 10 min read

イントロ

生成型エンジン最適化(GEO)において最も一般的な質問の一つは、一見単純に見えて実は複雑です:

「AIモデルは実際にどの情報源を選択するのか?」

ページの順位付け方法でも、情報の要約方法でも幻覚現象の抑制方法でもありません。

より深く戦略的な問いかけです:

なぜあるブランドやウェブページは「採用に値する」とされ、別のものは無視されるのか?

2025年、私たちは複数の生成エンジン(Google SGE、Bing Copilot、Perplexity、ChatGPT Browsing、Claude Search、Brave Summaries、You.com)を対象に一連の制御されたGEO実験を実施し、LLMが回答を生成する前に情報源を評価・フィルタリング・選択するプロセスを分析しました。

Ranktrackerの紹介

効果的なSEOのためのオールインワン・プラットフォーム

ビジネスが成功する背景には、強力なSEOキャンペーンがあります。しかし、数え切れないほどの最適化ツールやテクニックがあるため、どこから手をつければいいのかわからないこともあります。でも、もう心配はありません。効果的なSEOのためのオールインワンプラットフォーム「Ranktracker」を紹介します。

Ranktrackerの登録がついに無料になりました。

無料アカウント作成

または認証情報を使ってサインインする

本稿は生成型証拠選択の内部ロジックに関する初の独自研究を明らかにする:

  • モデルが特定のURLを選択する理由

  • なぜ特定のドメインが引用を支配するのか

  • 検索エンジンが信頼性を判断する方法

  • どの構造的シグナルが最も重要か

  • エンティティの明確性と事実の安定性の役割

  • LLM推論における「ソース適合性」の実態

  • 特定の業界が誤解される理由

  • なぜ特定ブランドが全検索エンジンで選ばれるのか

  • 検索・評価・統合の過程で実際に何が起きているのか

GEOを真剣に考えるすべての人にとって基礎となる知識です。

パート1:5段階モデル選択パイプライン(実際の動作)

検証した全ての生成エンジンは、情報源を選択する際に驚くほど類似した5段階のパイプラインに従う。

LLMは単に「ウェブを読む」だけではありません。ウェブをトリアージ(選別)するのです。

主要なエンジンすべてが共有するパイプラインは以下の通りです。

ステージ1:検索ウィンドウ構築

モデルは以下を用いて潜在的なソースの初期セットを収集します:

  • ベクトル埋め込み

  • 検索API

  • ブラウジングエージェント

  • 内部ナレッジグラフ

  • 事前学習済みウェブデータ

  • マルチエンジン混合検索

  • 過去のインタラクションの記憶

この段階が最も広範であり、ほとんどのウェブサイトが即座に除外される。

観察事項: 強力なSEO ≠ 強力な検索。モデルはSEOが平凡でも意味構造が強いページを選択することが多い。

ステージ2:証拠フィルタリング

ソースが取得されると、モデルは直ちに以下を欠くものを排除します:

  • 構造的明瞭性

  • 事実の正確性

  • 信頼できる著者情報

  • 一貫したブランディング

  • 正しいエンティティ定義

  • 最新の情報

当社のデータセットでは、ここで適格ページの約60~80%が除外されました。

ここで最大の致命傷となるのは? ブランド自身のエコシステム内で事実が不一致または矛盾していること。

ステージ3:信頼度加重

LLMは残存情報源に対し複数の信頼性ヒューリスティックを適用します。

エンジン間で使用される主要なシグナルを7つ特定しました:

1. エンティティ信頼性

ブランドが何を表し、何を行い、何を意味するかの明確さ。

2. クロスウェブ一貫性

事実関係は全プラットフォーム(自社サイト、LinkedIn、G2、Wikipedia、Crunchbase等)で一致していること。

3. 出典と作成者

検証済みの著者、透明性、信頼できるメタデータ。

4. 最新性

モデルは、古くなった、メンテナンスされていないページを大幅にランクダウンさせます。

5. 引用履歴

検索エンジンが過去に引用したサイトは、再度引用される可能性が高い。

6. ファーストソース優位性

独自の調査、データ、または一次的な事実が非常に重視される。

7. 構造化データの品質

一貫したスキーマ、正規化URL、クリーンなマークアップ。

Ranktrackerの紹介

効果的なSEOのためのオールインワン・プラットフォーム

ビジネスが成功する背景には、強力なSEOキャンペーンがあります。しかし、数え切れないほどの最適化ツールやテクニックがあるため、どこから手をつければいいのかわからないこともあります。でも、もう心配はありません。効果的なSEOのためのオールインワンプラットフォーム「Ranktracker」を紹介します。

Ranktrackerの登録がついに無料になりました。

無料アカウント作成

または認証情報を使ってサインインする

複数の信頼シグナルを持つページは、従来のSEO強みを持つページよりも一貫して高いパフォーマンスを示した。

ステージ4:コンテクストマッピング

モデルはコンテンツが以下の条件を満たすか検証します:

  • 意図に合致する

  • エンティティとの整合性

  • 推論の連鎖をサポートする

  • 独自の洞察を提供する

  • 冗長性を避ける

  • 曖昧さを解消する

ここでモデルは「メンタルマップ」の形成を開始します:

  • あなたが誰であるか

  • そのカテゴリーにおけるあなたの位置づけ

  • 回答において果たす役割

  • 情報を追加するか繰り返すか

コンテンツが新規価値を追加しない場合、除外されます。

ステージ5:統合的包含決定

最終的にモデルは判断を下します:

  • どの情報源を引用すべきか

  • 暗黙的に参照すべき情報

  • 深い推論にどの情報を使用するか

  • 完全に除外すべき情報

この段階では厳しく選別されます。

通常、最終回答に影響を与えるまでに生き残るのは3~10のソースのみです。たとえモデルが最初に200以上を抽出していたとしても。

生成される回答は、この厳しい選別を勝ち抜いた情報源から構築されます。

パート2:モデル全体で観察された7つの核心的行動

100以上のブランドを対象とした12,000件のテストクエリから、以下のパターンが繰り返し確認された。

行動1:モデルはブログ記事より「正規ページ」を優先する

全エンジンにおいて、AIが一貫して好んだのは:

  • 製品定義ページ

  • 製品定義ページ

  • 機能参照ページ

  • 公式ドキュメント

  • よくある質問

  • 価格

  • API ドキュメント

これらは信頼できる「真実の源」と見なされた。

ブログ記事が優位を示すのは以下の条件下のみ:

  • 一次情報源の研究が含まれている

  • 構造化されたリストが含まれていた

  • 定義を明確化した

  • 彼らは実践可能なフレームワークを提供した

それ以外のケースでは、正規ページが3倍のパフォーマンスを発揮した。

行動パターン2:検索エンジンはページ数が少なく質の高いブランドを信頼する

大規模サイトが低パフォーマンスだった主な理由は:

  • コンテンツが古いコンテンツと矛盾していた

  • 古いサポートページが依然として上位表示されていた

  • 事実が時間の経過とともに変化した

  • 製品名が変更された

  • レガシー記事が明瞭さを損なった

小規模で構造化されたサイトは著しく高いパフォーマンスを示した。

行動パターン3:鮮度は驚くほど強力な指標である

検索エンジンは即座に順位を下げる:

  • 古い統計データ

  • 陳腐化した定義

  • 古い製品説明

  • 変更されていないページ

  • バージョンの不一致

単一の正規事実ページを更新すると、テスト全体で72時間以内に生成型回答への掲載が増加した。

挙動4:モデルは強力なエンティティ足跡を持つブランドを好む

以下の条件を満たすブランドは

  • ウィキペディアのページ

  • ウィキデータエンティティ

  • 一貫したスキーマ

  • クロスウェブ記述の一致

  • 統一されたブランド定義

がはるかに頻繁に選択された。

モデルは一貫性=信頼と解釈する。

行動5:モデルは一次情報源に偏る

検索エンジンは以下を優先的に扱う:

  • オリジナル研究

  • 独自データ

  • 調査

  • ベンチマーク

  • ホワイトペーパー

  • 一次資料

オリジナルデータを公開すれば:

貴社は参照元となる。競合他社は派生元となる。

行動6:マルチモーダルな明瞭さが選択に影響する

モデルは、視覚的資産が以下のように利用できる情報源をますます選択する:

  • 理解済み

  • 抽出

  • 記述済み

  • 検証済み

製品スクリーンショットや動画が重要。40%の選択事例でクリーンなビジュアルが影響。

行動7:検索エンジンは曖昧さを容赦なく罰する

排除される最速の道:

  • 製品名の不一致

  • 曖昧な価値提案

  • 重複するカテゴリー定義

  • 不明確なポジショニング

  • 複数の解釈可能性

AIは混乱を招くソースを回避する。

パート3:ソース選定における最重要シグナル12選(観測された影響度順)

影響力の高い順に。

1. エンティティの明確性

2. クロスウェブ上の事実の一貫性

3. 最新性・鮮度

4. 独自情報源の価値

5. 構造化コンテンツのフォーマット

6. 標準的な定義の安定性

7. クリーンな検索性(クロール可能性+読み込み速度)

8. 信頼できる著者情報

9. 高品質な被リンク(権威性グラフ)

10. マルチモーダル整合性

11. 正しいカテゴリ配置

12. 最小限の曖昧性

これらが新たな「ランキング要因」です。

第4部:なぜ一部のブランドは全ての検索エンジンに表示されるのか(そして他のブランドは全く表示されないのか)

100以上のブランドを調査した結果、常に上位を占めるブランドがいくつか存在した:

  • 困惑度

  • クロード

  • ChatGPT

  • SGE

  • Bing

  • Brave

  • ユー・ドットコム

なぜか?

Ranktrackerの紹介

効果的なSEOのためのオールインワン・プラットフォーム

ビジネスが成功する背景には、強力なSEOキャンペーンがあります。しかし、数え切れないほどの最適化ツールやテクニックがあるため、どこから手をつければいいのかわからないこともあります。でも、もう心配はありません。効果的なSEOのためのオールインワンプラットフォーム「Ranktracker」を紹介します。

Ranktrackerの登録がついに無料になりました。

無料アカウント作成

または認証情報を使ってサインインする

これらのブランドには以下の特徴があった:

  • 一貫性のあるエンティティグラフ

  • 明確な定義

  • 強力な標準ハブ

  • オリジナルデータ

  • 事実に基づいた安定した製品ページ

  • 統一されたポジショニング

  • 矛盾する主張なし

  • 正確なサードパーティプロファイル

  • 長期的な事実の安定性

検索エンジンに依存しない可視性は、規模ではなく信頼性から生まれる。

第5部:ソース選択の最適化手法(実践的なGEOメソッド)

以下は、すべての調査から導き出された方法論の要約です。

ステップ1:標準的なファクトページを作成する

定義:

  • あなたが誰であるか

  • 何をなすか

  • 仕事の進め方

  • あなたが何でないか

  • 製品名と定義

これらのページは定期的に更新する必要があります。

ステップ2:内部矛盾の削減

監査:

  • 製品名

  • 説明

  • 特徴

  • 主張

検索エンジンは不整合を厳しく罰します。

ステップ3: ファーストソース知識を公開する

例:

  • オリジナル統計

  • 年間業界ベンチマーク

  • パフォーマンスレポート

  • 技術分析

  • ユーザー行動調査

  • カテゴリーインサイト

これによりAIの包含性が劇的に向上する。

ステップ4: エンティティプロファイルの強化

更新:

  • ウィキデータ

  • ナレッジグラフ

  • LinkedIn

  • Crunchbase

  • GitHub

  • G2

  • ソーシャルバイオ

  • スキーママークアップ

AIモデルはこれらを信頼グラフに統合します。

ステップ5:すべてを構造化する

使用:

  • 箇条書き

  • 短い段落

  • H2/H3/H4見出し

  • 定義

  • リスト

  • 比較

  • Q&Aモジュール

LLMが構造を直接解析します。

ステップ6:主要ページを毎月更新

最新性は以下と相関する:

  • 包含

  • 正確性

  • 信頼度重み付け

  • 統合可能性

古いページは順位を落とします。

ステップ7: 明確な比較ページを作成する

モデルが好む要素:

  • 長所と短所

  • 機能別内訳

  • 透明な制限事項

  • 並列比較の明瞭さ

比較しやすいコンテンツはより多くの引用を獲得する。

ステップ8:AIの不正確さを修正する

修正は早期に提出する。

モデルは軽く押すと素早く更新される。

第6部:ソース選択の未来(2026~2030年予測)

2024年から2025年にかけて観察された行動に基づき、以下の傾向は確実である:

1. 信頼グラフが正式なランキングシステムとなる

モデルは独自の信頼スコアを維持する。

2. ファーストソースコンテンツが必須となる

検索エンジンは二次コンテンツの引用を停止する。

3. エンティティ駆動型発見がキーワード駆動型発見に取って代わる

エンティティ>キーワード。

4. コンテンツの由来証明(C2PA)が必須となる

署名のないコンテンツは順位が下がる。

5. マルチモーダル情報源選択が成熟

画像、動画、チャートが第一級の証拠となる。

6. エージェントが主張を自律的に検証する

閲覧エージェントがあなたの情報を再確認する。

7. 情報源選択は明瞭さの競争となる

曖昧さは致命的となる。

結論:GEOはランキングではなく、選ばれることである

生成エンジンはページを「ランク付け」しているわけではない。推論の連鎖に含める情報源を選んでいるのだ。

当社の調査によれば、情報源の選定は以下に依存します:

  • 明瞭さ

  • 構造

  • 事実の安定性

  • エンティティ整合性

  • 独創的洞察

  • 近時性

  • 一貫性

  • 由来

生成型回答に現れるブランドは、SEOが最も優れている企業ではない。AI推論にとって最も安全で、明確で、権威ある入力源となる企業である。

GEOとは、その信頼できる入力となるプロセスである。

Felix Rose-Collins

Felix Rose-Collins

Ranktracker's CEO/CMO & Co-founder

Felix Rose-Collins is the Co-founder and CEO/CMO of Ranktracker. With over 15 years of SEO experience, he has single-handedly scaled the Ranktracker site to over 500,000 monthly visits, with 390,000 of these stemming from organic searches each month.

Ranktrackerを無料で使いましょう。

あなたのWebサイトのランキングを妨げている原因を突き止めます。

無料アカウント作成

または認証情報を使ってサインインする

Different views of Ranktracker app