Search Console の「サイトマップ」で赤字の「取得できませんでした」が出ている状態は、単なる見た目のエラーではありません。どの URL が Google クローラーに届いていないのか分からないまま、SEO の打ち手を続けているということです。インデックスされていないページに広告費や制作コストを投下している可能性がある以上、この放置はそのまま利益の削り取りです。
多くの Web 担当者はここで「XML サイトマップを作成して送信し直す」「プラグインを入れ替える」といった一般論に頼ります。しかし、Search Console が返しているのは単なるエラー表示ではなく、「どの段階で URL 取得が止まっているか」という通信ログに近い情報です。この分解をせずに対処法だけをなぞっても、静的 HTML サイトのキャッシュ問題、WordPress のプラグイン干渉、robots.txt や WAF によるクローラー遮断といった実務上の原因には届きません。
結果を左右するのは、「サイトマップの作成」そのものではなく、
- URL がブラウザから正常表示されているか
- Googlebot だけがアクセス拒否されていないか
- サイトの構成変更(リニューアル、サーバー移転、CDN 導入)がサイトマップ URL にどう影響したか
を、Search Console・サーバー・CMS の画面をまたいで横断的に確認できるかどうかです。
この記事では、「サーチコンソールでサイトマップが取得できませんでした」という状態を、感覚論ではなくチェックリストと現場パターンに落とし込みます。最初にエラーの意味を30秒で整理し、5分で原因を切り分ける URL/ファイル/クローラーアクセスの確認手順を提示。そのうえで、WordPress、静的サイト、ヘッドレス CMS、CDN 利用サイトごとの落とし穴、Google 検索セントラル コミュニティで実際に報告されている「想定外の遮断パターン」まで踏み込みます。
さらに、制作会社やサーバー会社とのやり取りが迷走しがちなポイントを具体化し、「今日どこまで調査するか」「どこから専門家に渡すか」の線引きも明示します。Search Console のエラーを「漠然と気持ち悪いもの」から、「原因と打ち手を短時間で整理できる管理指標」に変えることが、この導線全体の目的です。
| セクション | 読者が手にする具体的な武器(実利) | 解決される本質的な課題 |
|---|---|---|
| 構成の前半(エラーの整理〜5分チェックリスト〜WordPress/静的サイトの原因) | サイトマップのステータスを読み解き、URL・XML ファイル・robots.txt・アクセス制限を順番に潰していく具体的な確認手順 | 「どこから疑えばよいか分からない」「取得できませんでしたを前に手が止まる」状態から抜け出せない問題 |
| 構成の後半(コミュニティ事例〜社内調整〜撤退ラインの設計) | WAF・CDN・IP 制限など想定外パターンへの目線、社内・社外への説明用レポート テンプレ、専門家に渡す判断基準 | 調査が長期化し、社長やクライアントからの「SEO は大丈夫か?」に即答できない、責任の所在が曖昧な運営体制 |
この先を読み進めれば、「取得できませんでした」という表示を見た瞬間に取るべき行動が、手順と役割分担レベルで明確になります。
- 「サイトマップを取得できませんでした」とは何かを30秒で整理(Search Consoleの前提とSEOへの影響)
- まずここから:エラー原因を切り分ける“5分チェックリスト”(URL・ファイル・クローラーアクセス)
- WordPressサイトで多発する「プラグイン干渉」ケースと実際の対処法
- 静的HTML・ヘッドレスCMSサイト特有の落とし穴(キャッシュ・リバースプロキシ・謎の「?1」問題)
- Google検索セントラル コミュニティに学ぶ、「想定外」のクローラー遮断パターン
- 担当者の現場あるある:社内チャット&メールのやり取りから見る「調査の迷走」と軌道修正
- 「ネット記事どおりにやっても直らない」ときに見直すべき、3つの思い込み
- 再発防止のための運営チェックリスト:登録方法・環境変更・委託先との役割分担
- それでも原因不明なときの「撤退ライン」と、専門家への相談タイミング
- 執筆者紹介
「サイトマップを取得できませんでした」とは何かを30秒で整理(Search Consoleの前提とSEOへの影響)
Search Consoleのサイトマップ画面で表示される「サイトマップを取得できませんでした」は、Googleのクローラーが指定されたXMLサイトマップURLにアクセスしたが、正常に中身を読めなかった状態を指します。
これは「サイト自体が終わった」サインではありませんが、放置すると次の判断ができなくなります。
-
どのURLが検索エンジンに届いているか
-
インデックスさせたいページが網羅されているか
-
どこからクローラーが弾かれているのか
つまり、SEOの土台となる“検索エンジンへの設計図(サイトマップ)”が共有できていない可能性があるため、運用担当としては無視しにくいエラーです。
この章では、まず「このメッセージが出たとき何が起きているのか」を俯瞰し、社内で説明できるレベルまで整理します。
Search Consoleのサイトマップ機能と、SEO施策としての役割
XMLサイトマップは、「このサイトにはこういうURL構成でページがあります」という一覧ファイルです。Search Consoleのサイトマップ機能は、次の3つを目的に使います。
-
Googleに優先的にクロールしてほしいURL集合を通知する
-
インデックス対象から意図的に外しているURLを把握する
-
クロールエラー・インデックスエラーを構造的にモニタリングする
ここを誤解しがちですが、XMLサイトマップの送信自体がSEO順位を直接押し上げるわけではありません。
実務的には、次のような“管理面でのメリット”が大きいです。
-
リニューアル直後に、新しいURL構造を効率よく検索エンジンへ知らせられる
-
大量のページを持つWebサイトで、「どこまでインデックスされたか」を数字で追える
-
エラー発生時に、URL単位ではなく「サイト設計レベル」で問題を特定しやすくなる
サイト規模が小さくても、「どのURLをGoogleに見てほしいのか」を明示し、Web担当がインデックス状況を可視化するための運用ツール、と捉えると判断しやすくなります。
「取得」「取得できませんでした」などステータスの意味と、アクセス状況の違い
Search Consoleのサイトマップ一覧では、代表的に次のステータスが表示されます。
| ステータス表示 | Google側の状態 | 現場担当がまず疑うポイント |
|---|---|---|
| 成功しました | サイトマップURLにアクセスでき、中身もXMLとして読めている | 中身のURL数・更新日時が期待どおりか |
| 取得しました | URLにも中身にもアクセスできたが、一部に警告や軽微な問題がある | 対象URLのインデックス状況・警告内容 |
| 取得できませんでした | サイトマップURLにアクセスしたが、HTTPエラーやリダイレクトなどで読めなかった | URL間違い、ファイル未設置、アクセス制限、プラグイン干渉、サーバー設定 |
| 発見されませんでした | 404などで、そもそもファイルが存在しない | URLミス、ファイルのアップロード忘れ |
「取得できませんでした」は、“存在はするが正しく読めていない”グレーゾーンです。
典型的には次のような技術的要因が絡みます。
-
HTTPステータスが200以外(403, 404, 500など)
-
リダイレクトループや、別ドメインへの意図しない転送
-
robots.txtやWAF(Webアプリケーションファイアウォール)によるクローラーのブロック
-
WordPressプラグインやキャッシュ設定によるXMLサイトマップURLの競合
人間のブラウザから見ると「普通に開ける」のに、Googleだけが読めないケースもここに含まれます。
放置してよいケース/今すぐ対策すべきケースの線引き(Information Gain)
運用の現場で悩ましいのは、「どこまで時間をかけるべきか」という判断です。
Search Consoleの画面だけを見て悩み続けるより、次の観点で“放置ライン”と“即対応ライン”を切り分ける方が、結果的にサイト全体のSEOにプラスになります。
| 判断軸 | 放置してよいケース(経過観察でOK) | 今すぐ対策すべきケース |
|---|---|---|
| インデックス状況 | サイトマップはエラーでも、主要ページが「URL検査」でインデックス済み | 重要なページがインデックスされていない/急に除外が増えた |
| サイト変更の有無 | ここ1〜2週間でサーバー・CMS・テーマを変更していない | 直近でリニューアル、ドメイン変更、WAF導入など大きな変更をした |
| エラー発生日 | 一度だけ出て、翌日の再送信で解消された | 数日〜1週間以上「取得できませんでした」が継続している |
| ビジネス影響 | 指名検索やブランドキーワードの流入は安定している | 有力キーワードや商品ページの流入が目に見えて減っている |
特に、サイトリニューアル直後に「取得できませんでした」が続き、かつ重要URLがインデックスされていない場合は、今日中に原因のあたりを付けにいくべきレベルです。
逆に、インデックスされていることが確認できており、一時的なサーバー負荷やキャッシュ挙動が疑われる場合は、焦って設定をいじり倒すより、状況を記録しつつ1〜2日置いてから再送信する方が安全です。
この線引きができると、
-
社長や上司からの「SEO大丈夫か?」という問いに、数字と事実で答えやすくなり
-
不要なプラグイン変更やサーバー設定変更による“二次被害”も防げます。
次の章では、この判断を支えるために、Web担当が最初の5分で実施できるチェックリストを具体的に整理していきます。
まずここから:エラー原因を切り分ける“5分チェックリスト”(URL・ファイル・クローラーアクセス)
Search Consoleで「サイトマップを取得できませんでした」と出た瞬間に、最初の5分でやるべき切り分けは3軸だけです。
-
URLが正しいか(綴り・プロトコル・末尾スラッシュ)
-
ファイル自体は正常に見えるか(HTTPステータスと中身)
-
Googleクローラーだけ弾かれていないか
頭の中では、次のように整理しておくと迷いません。
| 観点 | 人間のブラウザから | Googleクローラーから | 想定パターン |
|---|---|---|---|
| URL/ファイル | NG | NG | そもそも存在しない・URL間違い |
| アクセス制御 | OK | NG | robots.txt・WAF・IP制限 |
| キャッシュ/リダイレクト | 時々OK | 時々NG | 無限リダイレクト・古いキャッシュ |
以下、5分で終わるチェック手順を分解します。
ブラウザでURLを直叩きして確認すべき3点(HTTPステータス・中身・リダイレクト)
サイトマップURL(例: https://example.com/sitemap.xml)を、自分のブラウザで直接開きます。ここで見るのは3つだけです。
-
HTTPステータスコード
- 200: とりあえず到達はできている
- 404/410: ファイルが存在しない
- 403: アクセス拒否(制限系を疑う)
- 500系: サーバーエラー
-
中身がXMLサイトマップになっているか
- 先頭が
<urlset>または<sitemapindex>で始まっているか - HTMLの「404ページ」やログイン画面になっていないか
- 先頭が
-
リダイレクトの有無
- https→httpやwwwの有無で何度も飛ばされていないか
- sitemap.xmlにアクセスしたつもりが、トップページに飛ばされていないか
静的HTMLサイトの公開ログでは、内容に問題がないのに「取得できませんでした」が続き、URL末尾に ?1 を付けて再送信したら解消したケースが報告されています。これはサーバーやCDN側のキャッシュが古い状態を返していた典型例として参考になります。
robots.txt・アクセス制限など、Googleクローラーだけ弾かれていないかの簡易確認方法
人間からは見えているのにSearch Consoleだけエラー、という場合は「人間とGoogleの扱いの差」を疑います。最低限、次を確認します。
-
https://example.com/robots.txt を開き、次の2点を見る
User-agent: *に対してDisallow: /になっていないか- サイトマップURL自体を
Disallowしていないか
-
Basic認証やIP制限の有無
- 社内ネットワーク外からスマホ回線でアクセスしてみる
- パスワードダイアログが出るなら、Googleクローラーも止まる
-
WAFやCDNのセキュリティログ
- GooglebotのIPを「Bot攻撃」と誤検知してブロックしていないか
ここまでで「人間もGoogleも同じようにアクセスできるか」をだいたい切り分けられます。
よくある「そもそもサイトマップファイルが存在していない」ケースの見分け方
実務で一番多いのは、驚くほど単純な「ファイルがない」「URLが違う」です。次のチェックでほぼ判別できます。
-
404や500が返っているのに、Search Console側でだけ悩んでいないか
-
CMSの管理画面で表示されているサイトマップURLと、Search Consoleに登録したURLが1文字でも違っていないか
- http/https
- www有無
- sitemap.xml と sitemap_index.xml の取り違え
-
ブラウザで開くとサイトマップではなく、トップページHTMLが返っていないか
- リダイレクト設定やCMSの固定ページ設定が原因のことが多い
この段階で「URL/ファイルの問題」か「クローラーアクセスの問題」かを分けておくと、その後のWordPressプラグインやサーバー設定の深掘りが、社内でも制作会社とのやり取りでも格段にスムーズになります。
WordPressサイトで多発する「プラグイン干渉」ケースと実際の対処法
WordPressのサイトマップエラーで現場が一番ハマりやすいのが、XMLサイトマップ系プラグイン同士の「縄張り争い」です。サーチコンソール上ではシンプルに「サイトマップを取得できませんでした」とだけ表示されるので、原因がプラグイン競合だと気づきにくいのが厄介なポイントです。
XMLサイトマップ生成プラグインが複数入っていると何が起こるか(URL競合・干渉の実態)
代表的なパターンを整理すると次のようになります。
| 状況 | 実際に起きていること | サーチコンソール側の見え方 |
|---|---|---|
| All in One SEOとXML Sitemapsなど複数導入 | それぞれが別のsitemap.xmlを吐き出そうとし、最終的にどれが有効か分からない | 取得時のタイミングによって内容が違う、もしくは404/500が返る |
| 旧プラグイン停止忘れ+新プラグイン導入 | リライトルールが混在し、sitemap_index.xmlがリダイレクトループになる | 「取得できませんでした」や、稀に「エラーを含む」ステータス |
| SEOプラグイン+キャッシュプラグイン | 生成直後のXMLをキャッシュが古いファイルに差し替える | ブラウザでは見えるが、Googleクローラーだけ異なる中身を取得 |
検索エンジンから見ると、同じURLを開くたびに別のファイルやステータスが返っている状態になり、最終的に「安定しないからエラー扱い」に寄せられます。Web担当者からすると「ブラウザで開くと普通に表示されるのに、なぜ取得できないのか」という違和感になります。
ある運営者のケース:不要プラグイン停止だけで「取得できませんでした」が解消した流れ
SEO情報メディアの解説でも紹介されている第三者事例では、次のような流れで問題が解消しています。
-
もともと「Google XML Sitemaps」でsitemap.xmlを作成
-
後からSEOプラグイン(例:All in One SEO)を入れ、そちらでもXMLサイトマップ機能をオン
-
サーチコンソールに /sitemap.xml を送信 → 数日後「取得できませんでした」ステータスに変化
-
ブラウザでURLを確認すると、開けるが中身が更新されたりされなかったり不安定
-
プラグイン一覧を見直し、「XMLを作る役割が重複している」と判断
-
旧プラグイン側のサイトマップ機能をオフ、もしくはプラグイン自体を停止
-
数時間〜数日後にサーチコンソールで「取得に成功しました」に改善
このケースのポイントは、sitemap.xml自体は存在していたのに、裏側で「誰がそのURLを担当するか」が二転三転していたことです。ファイルの有無だけ見ても原因にたどり着けず、「プラグインの役割の重複」に目を向けたことで解決しています。
プラグイン整理の優先順位と、テスト環境がない場合の“安全な試し方”
制作会社がいない、テスト環境もないというWeb担当者にとって、「本番でプラグインを触る」のは怖い作業です。とはいえ放置するとSEOやインデックス状況の判断材料が曖昧なままになるので、優先順位を決めて、小さく試すのが現実的です。
【整理の優先順位】
- XMLサイトマップを生成しているプラグインを洗い出す
- 役割が被っているものを特定(例:SEOプラグインと専用XMLプラグイン)
- 「今後も使い続けたい側」を1つ決める
- 残りは機能オフ → それでも問題なければプラグイン自体を停止
【テスト環境がない場合の安全な進め方】
-
変更前に
- プラグイン一覧のスクリーンショットを保存
- サイトマップURLと中身をローカルに保存(念のため)
-
変更する順番
- まずは「XML機能だけをオフ」にして様子を見る
- その状態でブラウザとサーチコンソール双方からURLを確認
-
変更後の確認
- HTTPステータスが200か
- 意図したURL一覧になっているか
- 数日おいても「取得できませんでした」が再発しないか
テストサーバーがなくても、1操作ごとに「何を変えたか」「その後ステータスがどう変わったか」をメモしておくだけで、社長や上司から「SEO大丈夫?」と聞かれたときに、数字とログで説明できるようになります。これは単なる対処法ではなく、長期的なWeb運用の土台づくりにも直結します。
静的HTML・ヘッドレスCMSサイト特有の落とし穴(キャッシュ・リバースプロキシ・謎の「?1」問題)
Search Consoleの「サイトマップを取得できませんでした」は、静的HTMLやヘッドレスCMSの現場でこじれることが多い領域です。WordPressのようにアプリ側で完結せず、CDNやWAF、リバースプロキシが絡むため、表面上は問題なく見えてもクローラーだけがはじかれる構造になりやすいからです。
ファイルは存在するのに取得できない…静的サイトで起こりがちな3つのインフラ要因
ブラウザでhttps://example.com/sitemap.xmlを開くとXMLは表示されるのに、Search Consoleでは「取得できませんでした」というパターンは、次の三つにほぼ集約されます。
| カテゴリ | 起点 | 典型的な症状 |
|---|---|---|
| CDNキャッシュ | Cloudflare等 | 人間には200、Googlebotには古い404キャッシュ |
| リバースプロキシ・WAF | 企業向けFW | 特定UA/IPだけ403やタイムアウト |
| オリジンサーバー設定 | Apache/Nginx | sitemap.xmlだけ別ルールでリダイレクト・Basic認証 |
現場で確認するときの優先度は次の順番が効率的です。
- HTTPステータスの差分確認
cURLやChrome DevToolsで、通常アクセスとGooglebotユーザーエージェントを切り替えてステータスを比較する。 - 経路の把握
「ブラウザ→CDN→WAF→オリジン」のどこで制御しているかを図にし、sitemap.xmlにだけ特殊ルールがないか洗う。 - セキュリティ設定の例外確認
WAFルールやIP制限に「検索エンジン」を想定した例外があるか、ベンダーのドキュメントと照合する。
公開ログに見る“URL末尾にクエリを付けたら取得できた”ケースの読み解き(キャッシュとルーティング)
公開されている事例では、静的HTMLサイトで/sitemap.xmlを送信しても「取得できませんでした」のまま数日経過し、内容を検証しても問題なし。そこでsitemap.xml?1を送信したところ即座に取得成功した、という報告があります。
この挙動から分かることは二つです。
-
Search Console側またはCDN側のキャッシュ問題
クエリ付きURLは別リソースと認識されるため、古い404キャッシュをバイパスできた可能性が高い。
-
ルーティングの実装依存
一部のヘッドレスCMSや静的ホスティングは、拡張子付きパスをアプリ経由にせず、クエリ付きのみアプリに流す設定になっているケースがある。
一時的にクエリ付きで回避するのは「応急処置」としては有効です。ただし本来やるべきことは、オリジン側で/sitemap.xmlへのレスポンスを安定させた上で、CDNキャッシュをパージし、最終的にはクエリなしURL一本に統一することです。
CDN・キャッシュ層をまたぐウェブサイトで、担当者が必ず見るべきポイント
ヘッドレスCMSやJamstack構成では、Search Consoleのトラブルは「どの層の設定か」を切り分けられるかどうかで調査コストが大きく変わります。Web担当が最低限チェックしたいポイントを整理します。
-
1: 経路図を作る
提供会社の構成図や管理画面から、ユーザーアクセスが通るレイヤーを洗い出す。
例: ブラウザ → CDN → WAF → ロードバランサ → アプリサーバー。 -
2: レイヤーごとのログ有無を確認する
どの層でHTTPステータスとUser-Agentが記録されているかを把握し、「人間は200だがGooglebotは403」といった差分を追える状態にする。
-
3:
robots.txtと合わせて見るCDNやプロキシで
/robots.txtだけ別オリジンを向いていると、robotsでは許可しているのに、実際のsitemap.xmlは別環境で403というねじれが起こる。 -
4: キャッシュ無視のリクエスト手段を一つ持つ
curl -H 'Cache-Control: no-cache'での確認や、CDN管理画面の「キャッシュパージ」を使い、設定変更後に必ずキャッシュを飛ばした状態で再取得テストを行う。
この四つを押さえておくと、「サーバー会社に聞くべきか」「CDNベンダーに問い合わせるべきか」を明確に切り分けられ、社内のチャットやメールでも的確に状況共有しやすくなります。Web担当としての判断力そのものが評価されるポイントです。
Google検索セントラル コミュニティに学ぶ、「想定外」のクローラー遮断パターン
Search Consoleの「サイトマップを取得できませんでした」は、表面だけ見ると単なるXMLやURLの問題に見えます。実際にGoogle検索セントラル コミュニティを追うと、「人間からは普通に表示されるのに、Googleクローラーだけ弾かれている」ケースがかなり多く報告されています。ここでは、そのパターンと、相談するときに必要な情報を整理します。
人間からは見えるのにGoogleだけ見えない:WAF・CDN・IP制限の典型ケース
ブラウザでsitemap.xmlを開けるのに、Search Consoleでは「取得できませんでした」と出ている場合、インフラ層がGooglebotを誤ブロックしている可能性があります。コミュニティで頻出するのは次の3つです。
| レイヤー | 典型的な原因 | 確認の着眼点 |
|---|---|---|
| WAF(Web Application Firewall) | Bot判定のしきい値が厳しすぎてGooglebotも遮断 | WAFログにGooglebotのIPと403/503が残っていないか |
| CDN / リバースプロキシ | 特定IP帯へのレート制限・国別ブロック | CDNのセキュリティ設定で「クローラー」「Bot」の扱い |
| サーバー/ネットワーク | IP制限・.htaccess・社内向けテスト設定の残骸 | 会社や自宅からは見えるのに、外部監視サービスからは見えない状態 |
ポイントは、「自分のPCから見える=世界中から見える」ではないことです。Googlebotは世界中のデータセンターからアクセスしてくるため、IP制限や国別ブロック、国産WAFの厳しめルールにひっかかりやすい層になります。
コミュニティでよくある質問テンプレと、最低限添付しておくべきレポート(ログ・URL・ステータス)
Google検索セントラル コミュニティでは、プロダクトエキスパートが回答する前提として「診断材料」が求められます。相談のたびに聞かれている項目をまとめると、ほぼテンプレ化されています。
-
対象サイトのプロパティURL(http/https、www有無まで正確に)
-
送信しているサイトマップURL(例: https://example.com/sitemap.xml)
-
Search Consoleのステータス表示のスクリーンショット
-
ブラウザで該当URLを開いたときのHTTPステータスコード(200/301/404/403/500)
-
curl -IやChrome DevToolsで取得したレスポンスヘッダー -
robots.txtのURLと内容
-
エラーが出始めたおおよその日時と、その前後で行った変更(サーバー移転、WAF導入、CDN切替など)
これらがない質問は、「情報が足りないのでステータスとヘッダーを貼ってください」と差し戻されているケースが目立ちます。SEOの専門家から見ても、HTTPステータスとレスポンスヘッダーがない状態では、原因の特定はほぼ不可能です。
自力で詰まった時にセカンドオピニオンをもらうための“質問の書き方”
社内で調査しても行き詰まったときは、コミュニティや専門家に「セカンドオピニオン」を求めた方が時間対効果が高くなります。その際、質問文は次の3ブロックに分けると、回答の質が一気に上がります。
-
現象の要約(事実だけ)
「Search Consoleのサイトマップで『取得できませんでした』と表示されている。対象URLは〇〇。ブラウザからは200で内容が表示されている。」 -
自分で試したことと結果
- robots.txtでDisallowしていないことを確認
curl -A "Googlebot" -I https://example.com/sitemap.xmlを実行し、200が返ることを確認- WAFログを確認したが、GooglebotのIPらしきアクセスは見つからなかった
-
知りたいことを明示
「この状況で、次に確認すべきインフラ側のポイントはどこか」「Search Console側のキャッシュが疑われる場合、どの程度待つべきか」など、ゴールを1〜2個に絞る
この書き方にすると、上級ユーザーやプロダクトエキスパートが「どこまで調べたか」「どこが見落としポイントになりそうか」を瞬時に把握できます。結果として、単なる一般論ではなく、あなたのサイトの環境に踏み込んだ回答が返ってきやすくなります。
担当者の現場あるある:社内チャット&メールのやり取りから見る「調査の迷走」と軌道修正
例:Web担当と制作会社のメールのやり取りにありがちなすれ違い(責任範囲と前提知識)
Search Consoleのスクショだけ送って
「サイトマップが取得できませんでした。至急対応お願いします」
と投げると、高確率で話がかみ合いません。
原因は、担当者と制作側で「どこまで確認済みか」の前提がズレていることが多いです。
送る前に、最低限この3点を一緒に共有すると、調査が一気に進みます。
-
サイトマップURLと、ブラウザで開いた結果(200/404/403など)
-
robots.txtのURLと内容(Disallowの有無)
-
サーバーやWAFを最近変更していないか
メール本文のテンプレは次のように整理しておくと便利です。
| 項目 | 担当者側で確認した内容 | 制作会社に依頼したい内容 |
|---|---|---|
| サイトマップURL | ブラウザで200を確認 | 中身の妥当性チェック |
| robots.txt | Disallowなしを確認 | Googlebot用の制限有無 |
| サーバー設定 | 直近1か月変更なし | WAF・IP制限の確認 |
例:社長からの「SEO大丈夫?」に即答するための、簡易レポートの構成(URL検査とサイトマップの関係)
社長は「技術詳細」ではなく「今どれくらい検索エンジンに見られているか」が知りたいだけです。そこで、Search ConsoleのURL検査とサイトマップ情報をこの3ブロックに要約します。
-
現状サマリ
- サイトマップのステータス(取得済み/一部エラー)
- インデックス済みページ数の推移グラフ
-
代表ページの診断
- 重要3ページをURL検査で確認し「インデックス済み/保留/除外」の結果を列挙
-
リスクとアクション
- サイトマップでエラーになっているが、主要ページはインデックスされている
- したがって「緊急ではないが、○日以内に技術調査を進める」という判断を明示
こうしておくと、「SEO大丈夫?」に対して、数字とスクショで即答できます。
調査にどこまで時間をかけるか──“今日やめるライン”を決めておく意味
サイトマップのエラー調査は、深追いするとあっという間に半日が溶けます。Web担当の本業は「売上や問い合わせを増やすこと」であり、エラーを完璧に0にすることではありません。
事前に、自分用の「今日やめるライン」を決めておきます。
-
30分でやること
- ブラウザでURL確認
- HTTPステータス確認
- robots.txtとアクセス制限のチェック
- 再送信してステータス待ち
-
ここまでで解決しなければ
- 技術者 or サーバー会社への相談に切り替え
- 調査ログ(確認したURL・ステータス・時刻)をメモに残す
「どこまで自分で追うか」を線引きしておくと、社内チャットでも「ここまで確認したので、ここから先は制作側に依頼します」と言い切れます。これが、迷走しないテクニカルSEOの第一歩です。
「ネット記事どおりにやっても直らない」ときに見直すべき、3つの思い込み
Search Consoleで「サイトマップを取得できませんでした」が消えないとき、多くのWeb担当者は設定やプラグインを疑いますが、実務で見ていると「前提の思い込み」がボトルネックになっているケースが目立ちます。ここでは、迷走を生む3つの思い込みを崩し、SEOと運用の両面で正しい判断軸を整理します。
「サイトマップは1つだけ」の思い込みが生む設定ミス(複数ファイルとインデックスサイトマップ)
規模が大きいサイトやWordPressでは、XMLサイトマップが1ファイルで完結しない構成が標準です。にもかかわらず、Search Consoleに「sitemap.xmlを1つ送ればOK」と思い込むと、次のような不整合が起こります。
| 状況 | 実際の構成 | Search Console上の誤った登録 | ありがちな結果 |
|---|---|---|---|
| WordPress標準 | sitemap_index.xml配下に投稿用・固定ページ用など複数 | 一部の子サイトマップだけ送信 | 取得エラー、インデックス状況の把握が歪む |
| 大規模サイト | /sitemap-1.xml〜/sitemap-10.xmlをインデックスから参照 | インデックスサイトマップではなく個別だけ送信 | クローラーの巡回優先度が読み取りにくい |
確認すべきポイントは3つです。
-
ブラウザでインデックスサイトマップ(例: /sitemap_index.xml)を開き、XML内に他のURLが列挙されているか
-
Search Consoleには、基本的に「インデックスサイトマップ」1件だけを送信しているか
-
不要な古いサイトマップURL(リニューアル前の構成)が残っていないか
「サイトマップは複数あってよい、ただし“入り口”は整理する」という発想に切り替えると、エラーの意味が読みやすくなります。
「サイトマップ送信=SEOが上がる施策」という誤解と、本当のメリット
サイトマップ送信はSEOで言えば「検索エンジンへの提出書類」に近く、順位を直接押し上げる装置ではありません。この誤解があると、「エラーが出ている=検索順位が落ちる」と社長やクライアントに説明してしまい、無駄なプレッシャーを生みます。
本当のメリットは次の3点に集約できます。
-
インデックス漏れの早期発見
新規ページや重要URLがクロールされていない場合、Search Consoleのカバレッジレポートで素早く気づける。
-
URL構造の変更をGoogleに伝える効率
サイトリニューアルやディレクトリ構成変更時、検索エンジンに「現在の正しい一覧」を一括で提示できる。
-
テクニカルSEOのヘルスチェック指標
サーバーエラー(5xx)やアクセス制限、robots.txtの書き方ミスを、サイトマップ経由で発見しやすい。
つまり、サイトマップ送信は「Googleとの情報連携を滑らかにする施策」であり、コンテンツの質や被リンクとは役割が異なります。逆に、どれだけ完璧なサイトマップを送信しても、ページ内容が薄ければインデックスも順位も伸びません。
「Search Consoleのエラー=すべて解消しなければならない」という強迫観念を手放す
現場で多いのが、「Search Consoleのエラーをゼロにすること」が目的化してしまうパターンです。特に「取得できませんでした」は目立つ赤字表示のため、心理的に放置しづらいステータスです。
押さえておきたい判断軸は次の通りです。
-
今すぐ対応必須のケース
- サイトマップURLへのアクセスが5xxエラーや403でブロックされている
- 本来インデックスさせたい主要ページが、そもそもサイトマップに含まれていない
- サイトリニューアル直後で、旧URLのサイトマップが生き残り誤誘導を起こしている
-
様子見でよいケース
- 一時的なサーバー負荷やCDNの不調が疑われる場合(時間をおいて再送信し、改善することがある)
- 既にページ自体はインデックス済みで、URL検査でも問題が出ていない
- 小規模サイトで、実際のインデックス数とアクセスに明確な悪影響が見られない
重要なのは、「Search Consoleのエラー数」ではなく、「検索結果にどう出ているか」「ビジネス上のアクセスが落ちているか」です。
エラーをゼロにするために何時間もサーバーログと格闘するより、原因を30〜60分で切り分け、「SEOや売上に直結しないなら今週はここまで」と線を引く方が、Web担当者の財布と時間を守る判断になります。
再発防止のための運営チェックリスト:登録方法・環境変更・委託先との役割分担
サイトリニューアルやサーバー変更時に必ず確認するべき“サイトマップとクローラー”項目
サイト改修のたびに「取得できませんでした」が再発するのは、作業チェックリストに落ちていないからです。リニューアル・ドメイン変更・サーバー移転時は、最低限次を1セットで確認します。
-
サイトマップURLの決定と共有
→
https://ドメイン/sitemap.xmlか、/sitemap_index.xmlかを仕様書に明記 -
HTTPステータス
→ ブラウザとcurlなどで200で返るか、301/302が不自然に連鎖していないか
-
robots.txt
→
Disallow: /やDisallow: /sitemapが入っていないか、Sitemap:行のURLが新環境のものか -
アクセス制限
→ Basic認証・IP制限・WAFの「管理画面保護」がサイトマップURLまで巻き込んでいないか
-
Search Console側設定
→ プロパティ種別(ドメイン/URLプレフィックス)の確認と、新URLでのサイトマップ再送信
特にインフラ側の担当が別部署の場合、「robots.txtとサイトマップURLは変更禁止」をあらかじめルール化しておくと、移転後のトラブルをかなり減らせます。
委託先・制作会社と両立させる運営体制:誰が何を監修・調査・報告するか
社内と外部パートナーの役割が曖昧だと、調査が堂々巡りになります。よく噛み合わないのは「どこまで制作会社が責任を持つか」です。責任範囲をテーブルで固定しておくと、社内チャットのストレスが激減します。
| 項目 | 主担当 | サブ担当 | 確認のゴール |
|---|---|---|---|
| サイトマップ生成設定(CMS/静的) | 制作会社 | 社内Web担当 | 仕様書にURLと形式(XML/インデックス)を明記 |
| robots.txt/アクセス制限 | インフラ担当 or サーバー会社 | 制作会社 | Googlebotが200で取得できること |
| Search Console登録・サイトマップ送信 | 社内Web担当 | 制作会社 | ステータス「成功」「一部のURLで問題」まで確認 |
| エラー発生時の一次調査 | 社内Web担当 | 制作会社 | ステータスコード・再現条件をまとめて共有 |
ポイントは、「誰が最初にSearch Consoleを見て、どの粒度まで調べてから相談するか」を決めておくことです。社内担当が5分チェック(URL直叩き・ステータス・robots.txt)までは必ず行い、その結果を添えて制作会社やサーバー会社に投げる形にすると、やり取りが早くなります。
月1回で十分な、Search Consoleの定点観測と簡易アクセスレポートの作り方
毎日張り付く必要はありません。多くの中小〜中堅サイトなら、月1回30分の定点観測で十分です。最低限押さえておくと社長にも即答しやすくなります。
-
サイトマップタブ
→ ステータスの変化(成功→取得できませんでしたになっていないか)、送信日と最終読み込み日
-
インデックス登録レポート
→ 有効ページ数の推移グラフを前月と比較し、「増減理由」を一言メモ
-
URL検査でのスポット確認
→ 重要キーワードで上位を狙う代表ページ1~3本を検査し、「インデックス済み」「クロール許可」を確認
-
簡易レポートのテンプレ
- 先月とのアクセス傾向(検索パフォーマンスの表示回数・クリック数のざっくり増減)
- サイトマップ・インデックスまわりの異常有無
- 来月までに対応するタスク(不要URLのnoindex、サイトマップ整理など)
この3点をA4一枚か社内Wikiにまとめておくだけで、「SEO大丈夫か」という問いに数字と状況で返せますし、「取得できませんでした」が出たときも、いつから発生したのかをすぐ遡れます。
それでも原因不明なときの「撤退ライン」と、専門家への相談タイミング
ここまでやってダメなら、自前での調査をやめていいライン(時間と成果のバランス)
現場でWeb担当に伝えるのは「時間で線を引く」ことです。サイトマップ取得エラーは、次の3ステップをこなしても原因が見えなければ、一度手を離して構いません。
-
HTTPステータスと中身確認(ブラウザ直アクセス+開発者ツール)
-
robots.txt・Basic認証・IP制限の確認
-
プラグイン整理やCDN設定の一次チェック
目安としては1〜2時間以上かけても「有力な仮説が1つも立たない」状態なら撤退ラインです。Search Consoleのサイトマップ機能はSEO全体の一部でしかなく、インデックス自体が進んでいるページも多いため、担当者の工数をすべてここに吸われるほうが長期的なアクセス改善の機会損失になります。
相談先の選び方:AIチャット・コミュニティ・SEO会社・サーバー会社、それぞれの得意分野
まず「何が分からないのか」を切り分けてから相談先を選ぶと、やり取りが短く済みます。
| 相談先 | 得意分野 | 向いている状況 |
|---|---|---|
| AIチャット | 手順の整理、URL検査のやり方、robots.txtの書き方の確認 | まずやることを洗い出したい時 |
| Google検索セントラル コミュニティ | クローラーアクセス、WAF・CDN由来の問題の仮説出し | サーバーやCDNの影響が疑われる時 |
| SEO会社・Web制作会社 | サイト構造・SEO設計、複数サイトマップやリニューアル後の整合性確認 | サイト全体のSEO方針も見直したい時 |
| サーバー会社・CDNベンダー | IP制限、WAF、SSL設定、リバースプロキシ | 人間からは見えるのにGoogleだけエラーな時 |
サーバー側のログやWAF設定が関わるときは、SEO会社だけでは権限不足なケースも多く、SEO会社+サーバー会社の両方に同じ情報(URL・時刻・ステータスコード)を共有すると解決が早まります。
将来のトラブルに備えた「設定のスクリーンショット保存」とナレッジ共有のすすめ
サイトマップ取得問題は「環境変更後に何を変えたか分からない」ことが長期化の主因になりがちです。再発を防ぐために、次の3点をチームの標準ルールにしておくと、次回からの調査コストが半分ほどになります。
-
Search Consoleのサイトマップ登録画面、URL検査結果のスクリーンショット保存
-
WordPressのプラグイン一覧、XMLサイトマップ設定画面のスクリーンショット保存
-
サーバー管理画面(WAF・IP制限・リダイレクト設定)の変更前後をキャプチャして社内ストレージに保管
簡単で効果が大きいのは、「サーバー変更・SSL更新・リニューアルのたびに1枚ずつ撮る」ことです。社長や上司から「SEO大丈夫か」と聞かれた時も、その画面を添えてSearch Consoleのインデックス状況と合わせて説明すれば、言葉だけの報告より納得を得やすくなります。
執筆者紹介
主要領域はIT・Web運用の実務解説。自社メディア「Next Wave」でSNSや検索ツールのトラブル対処記事を継続発信し、Google公式情報や公開事例をもとに、現場で使えるチェックリストとして整理することを重視して執筆しています。

