クロールバジェットの詳細と最適化方法まとめ

クロールバジェットの詳細と最適化方法まとめ

現代のデジタル世界では、Webサイトの可視性がビジネスの成功に直結します。そのため、SEO対策がますます重要視される中、サイト運営者が注目すべき要素の一つが「クロールバジェット」です。

クロールバジェットとは、Googleのクローラーが特定のサイトを巡回する際に割り当てられるリソースの量を指します。このリソースは、検索エンジンがサイト内のページを効率よくクロールし、インデックスするための重要な要素です。

そこで本記事では、クロールバジェットの基本概念からその最適化方法までを詳しく解説し、サイトの検索パフォーマンスを最大化するための具体的な対策を紹介します。

クロールバジェットとは

クロールバジェット

クロールバジェットとは、Googleのクローラーが1つのサイトをクロールする際に割り当てられるリソース量を指します。言い換えれば、Googleが特定の期間内にどれだけのページをクロールするかの上限です。

インターネット上には無数のWebサイトが存在し、その中で適切な情報を効率よく収集し、インデックスするために、このクロールバジェットという概念が重要となります。

クロールバジェットは、特に大規模なサイトにとって重要な役割を果たします。例えば、数百万ページを有するECサイトでは、すべてのページが定期的にクロールされることは難しいです。

このようなサイトでは、クロールバジェットが不足すると、新しく追加された商品ページや更新された情報がGoogleに認識されず、検索結果に反映されないことが起こり得ます。

したがって、サイト運営者はクロールバジェットを効率的に管理し、重要なページが確実にクロールされるように工夫する必要があります。

また、クロールバジェットの管理は、SEOの観点からも重要です。適切に管理されたクロールバジェットは、検索エンジンがサイト内の重要なページをタイムリーにクロールし、インデックスに反映させることを助けます。結果として、サイトの検索順位が向上し、ユーザーが求める情報に素早くアクセスできるようになります。
クローラーとは?検索エンジンにインデックスされる仕組みや巡回頻度を上げる方法解説 クローラーとは?検索エンジンにインデックスされる仕組みや巡回頻度を上げる方法解説 Webサイトを制作、公開しても検索結果に表示されないと検索エンジン経由の集客はできません。検索エンジンがWebサイトの情報を取得するために使用しているのがクローラーです。クローラーがサイトの情報をどのように取得しているのか、基本的なところから解説します。

クロールバジェットの目的

クロールバジェットの目的

クロールバジェットの主な目的は、Googleのクローラーが効率よくWebサイトを巡回し、重要なページを見逃さないようにすることです。Googleは限られたリソースで多くのサイトをクロールするため、クロールの優先順位を設定し、効率的にインデックスを更新する必要があります。

クロールバジェットの管理は、ユーザーが検索結果で最新かつ関連性の高い情報を得られるようにするために重要です。例えば、頻繁に更新されるニュースサイトや大規模なECサイトにおいて、最新のコンテンツが検索結果に迅速に反映されることは、ユーザーエクスペリエンスを向上させるために不可欠です。

また、クロールバジェットの適切な管理は、サーバー負荷の軽減にも影響します。クローラーが効率的に動作することで、サーバーへの過剰な負荷を避け、サイトのパフォーマンスを維持できます。特に、サーバーのリソースが限られている場合やアクセスが集中する場合には、この点が欠かせません。

クロールバジェットの影響を受けやすいのは主に大規模サイト

クロールバジェットの影響を受けやすいのは主に大規模サイト

クロールバジェットの影響を大きく受けるのは、主に大規模で頻繁に更新されるサイトや、パラメータを使用してページを自動生成するようなサイトです。
具体的には、次のような特徴を持つサイトが該当します。

まず、ページが数十万から数百万単位で存在するサイトです。例えば、Amazonや楽天市場などの大規模なECサイトや、不動産サイトなどのデータベース型サイトがこれに当たります。

次に、中規模以上のサイトで、毎日コンテンツが更新されるサイトです。具体的には、1日あたり1万ページ以上が更新されるようなサイトが対象となります。

これらのサイトでは、クロールバジェットを適切に管理し、効率的にクロールされるように気にしておく必要があります。

クロールバジェットの無駄遣いが発生するなど管理が不十分だと、重要なページがクロールされず、ユーザーに情報が届かないといったリスクがあります。そのため、上で述べたような大規模なサイト運営者は、クロールバジェットを最大限に活用するための対策を立てなければなりません。

数千ページ以下のサイトはほとんど関係ない

数千ページ以下のサイトはほとんど関係ない

Google検索セントラルブログでは、クロールの割り当て(クロールバジェット)について以下の用に発信しています。

“まず重要なのは、以下で述べるように、クロールの割り当てとは、ほとんどのパブリッシャーの方々にとって気にすべきものではない、ということです。新しいページが公開された当日にクロールされることが多い場合、ウェブマスターの方がクロールの割り当てを重視する必要はありません。同様に、サイトの URL が数千もない場合、そのサイトのクロールはたいてい効率的に行われます。”(引用:Google 検索セントラル ブログ-Googlebot のクロールの割り当てについて

ここから読み取れるように、数百~数千ページの企業サイトやメディア、個人サイトなどではクロールバジェットの影響を受ける可能性は低く、特に心配する必要はありません。

クロールバジェットの決まり方

クロールバジェットの決まり方

クロールバジェットは、主にクロール能力の上限とクロールの必要性の2つの要因によって決まります。それぞれの要因を解説します。

クロール能力の上限

クロール能力の上限とは、Googleのクローラーが一度にどれだけのページをクロールできるかの制限です。これは主にサーバーの負荷に基づいて決定されます。例えば、サーバーの応答速度が速く、安定している場合、クロール頻度は高くなります。一方、サーバーが遅い場合やエラーが多い場合、クロール頻度は低くなる可能性が高いです。

Googleは、サイトのパフォーマンスを常に監視しており、サーバーが過度に負荷を受けないようにクロールの頻度を調整します。これにより、ユーザーのエクスペリエンスが損なわれることなく、サイトの情報を最新の状態に保つことができます。

また、Googleのリソースにも限りがあるため、すべてのサイトを同じ頻度でクロールすることはできません。そのため、重要度に応じてクロールの優先順位が設定されます。ニュースサイトのように頻繁に更新されるサイトは、クロール頻度が高く設定されることが多いです。

クロールの必要性

クロールの必要性は、サイトの更新頻度や人気度によって決まります。頻繁に更新されるサイトや、多くのユーザーがアクセスする人気サイトは、より頻繁にクロールされる傾向があります。これは、ユーザーに最新かつ関連性の高い情報を提供するためです。

例えば、ニュースサイトやブログのように頻繁に更新されるサイトは、高いクロール頻度が必要です。これにより、最新の記事や情報が迅速にインデックスされ、検索結果に反映されます。一方で、更新頻度が低く、アクセス数も少ないサイトは、クロール頻度が低く設定されることがあります。

また、Googleはリンクの質や数もクロールの必要性を判断する基準としています。他の信頼性の高いサイトから多くのリンクを受けているサイトは、重要性が高いと見なされ、クロール頻度が増える可能性が高いです。

クロールバジェットに悪影響を及ぼす要因

クロールバジェットに悪影響を及ぼす要因

クロールバジェットに悪影響を及ぼす主な要因は以下の通りです。

  • ファセット ナビゲーションとセッションID
  • サイト内の重複コンテンツ
  • 質の低いコンテンツやスパムコンテンツ

それぞれ解説します。

ファセット ナビゲーションとセッションID

ファセットナビゲーションは、大規模なECサイトなどで多く見られる機能です。色やサイズ、価格などのフィルターを使って商品の絞り込みを行う際に使用されます。このナビゲーションシステムにより、多くの異なるURLが生成されることがあります。一方、セッションIDは、ユーザーの訪問ごとにIDを生成する仕組みです。

これらが悪影響を及ぼす理由は、クローラーが同じ内容を持つ多数の異なるURLをクロールしてしまうためです。例えば、同じ商品の色違いを表示する複数のURLが存在すると、クローラーはこれらをすべてクロールしようとします。

その結果、重要なページのクロールが後回しにされ、クロールバジェットが無駄に消費されてしまうのです。

具体例として、オンラインショップで同じ商品が異なるサイズや色ごとに別々のURLで表示される場合があります。これにより、クローラーはこれらの全てのバリエーションをクロールし、リソースが無駄に使われることになります。

これを防ぐためには、URLパラメータを最適化し、重複するコンテンツを減らすことが必要です。
重複コンテンツをチェックする方法は?基準や調べ方、対策方法も解説 重複コンテンツをチェックする方法は?基準や調べ方、対策方法も解説

サイト内の重複コンテンツ

サイト内の重複コンテンツは、クロールバジェットに大きな影響を与えます。重複コンテンツとは、同じまたは類似した内容が複数のページに存在することです。これが発生すると、クローラーは同じ情報を何度もクロールすることになり、リソースが無駄になります。

例えば、同じ記事が異なるカテゴリページやタグページに表示される場合があります。これにより、クローラーはこれらすべてのページをクロールしなければならず、重要なページのクロールが遅れることがあるのです。重複コンテンツを避けるためには、正規化タグを使用して、クローラーにどのページが主要なものかを伝えることが重要です。

また、URLパラメータの使用によって重複コンテンツが発生することもあります。具体的には、フィルターやソート機能によって生成されたURLが多くなると、クローラーはこれらをすべてクロールしようとします。この場合も、正規化タグやrobots.txtファイルを使用して、クロールする必要のないページを除外することが推奨されます。
canonicalタグとは?URL正規化やcanonicalタグの正しい記述方法を解説 canonicalタグとは?URL正規化やcanonicalタグの正しい記述方法を解説 少しSEOに詳しい人ならcanonicalタグについて聞いたことがあるでしょう。では、どんな時に設定すべきかを正確に説明できるでしょうか?理解しているようでイマイチわからないcanonical属性について解説します。
robots txtとは?書き方と設置方法、noindexとの違いを解説 robots txtとは?書き方と設置方法、noindexとの違いを解説 本記事では、robotstxtについて、役割やnoindexとの違い、クローラーの種類や記述方法まで詳しく解説しています。robotstxtを使ってクローラーをうまく制御するためにも、正しい知識を持って活用しましょう。

質の低いコンテンツやスパムコンテンツ

質の低いコンテンツやスパムコンテンツは、クロールバジェットの効率的な利用を妨げる要因となります。これらのコンテンツは、ユーザーにとって価値が低いため、検索エンジンにとっても重要性が低くなります。

それにもかかわらず、クローラーはこれらのページをクロールしなければならず、リソースが無駄に使われてしまうのです。

例えば、キーワードの詰め込みや自動生成されたコンテンツ、他のサイトからのコピーコンテンツなどが質の低いコンテンツとして挙げられます。

これらのページはユーザーの役に立たないため、クロールバジェットを浪費する原因となります。この問題を解決するためには、コンテンツの品質を高め、ユーザーにとって有益な情報を提供することが重要です。

具体的な対策として、サイト全体のコンテンツを定期的に見直し、質の低いページを削除または改善することが必要です。また、Google Search Consoleなどのツールを使用して、クロールエラーや低品質コンテンツの問題を特定し、迅速に対処することが推奨されます。

クロールバジェットを最適化する方法

クロールバジェットを最適化する方法

クロールバジェットを最適化するためには、以下の方法があげられます。

  • XMLサイトマップの更新と最適化
  • 低品質ページの修正・削除
  • 404・410エラーの修正
  • robots.txtの最適化
  • リダイレクトチェーンの解消

それぞれの方法を解説します。

XMLサイトマップの更新と最適化

XMLサイトマップの更新と最適化は、クロールバジェットの効率的な利用に欠かせない要素です。XMLサイトマップは、検索エンジンに対してサイト内のページ構造を知らせるためのファイルです。これにより、クローラーは効率的にサイトを巡回し、重要なページを見逃すことなくクロールできます。

XMLサイトマップの最適化が必要な理由は、クローラーにとってサイト内のページを理解しやすくするためです。例えば、新しいページを追加したり、既存のページを更新した場合、XMLサイトマップを更新することで、クローラーに変更を知らせることができます。これにより、最新の情報が迅速にインデックスされ、検索結果に反映されるのです。

具体的な改善方法として、定期的にXMLサイトマップを生成し、Google Search Consoleに送信することが挙げられます。また、サイトマップ内に<lastmod>タグを使用して、各ページの最終更新日を記載することで、クローラーが変更を認識しやすくなります。これにより、重要なページのクロール頻度が増加し、サイト全体のSEO効果が向上しやすくなるでしょう。
サイトマップとは?2種類あるサイトマップの作り方とSEO効果 サイトマップとは?2種類あるサイトマップの作り方とSEO効果 Webサイト運営者なら誰でも知っているサイトマップですが、何のために必要なのでしょうか?また、XMLサイトマップとHTMLサイトマップのどちらかがあればいいのでしょうか?サイトマップについて基本的なところから解説します。

低品質ページの修正・削除

低品質なページを修正・削除することは、クロールバジェットの最適化において重要です。低品質なページは、クローラーのリソースを無駄に消費し、重要なページのクロールを妨げる原因となります。

低品質ページの例としては、内容が薄いページ、古い情報が掲載されたページ、ユーザーにとって価値が低いページなどが挙げられます。これらのページは、検索エンジンからも評価されにくく、SEO効果が低いです。そのため、これらのページを定期的に見直し、改善または削除することが推奨されます。

具体的な対策として、まずサイト全体を監査し、低品質なページを特定します。その後、内容を充実させて高品質なコンテンツに改善するか、必要に応じて削除するとよいでしょう。また、Google AnalyticsやGoogle Search Consoleなどのツールを使用して、低品質ページのパフォーマンスを監視し、必要に応じて適切な対策を講じることが大切です。

404・410エラーの修正

404エラーや410エラーの修正は、クロールバジェットを無駄にしないために重要なステップです。404エラーは「ページが見つからない」、410エラーは「ページが削除された」ことを示します。これらのエラーが頻繁に発生すると、クローラーが無駄なリソースを消費し、クロールバジェットが浪費されてしまうのです。

404エラーや410エラーを修正することで、クローラーが無駄なページにアクセスするのを防ぎ、重要なページのクロールに集中させることができます。具体的には、サイトのリンク切れを定期的にチェックし、見つかった場合は適切にリダイレクトを設定するか、エラーページを修正することが必要です。

また、ソフト404エラー(ページが存在しないが、200 OKステータスコードを返すページ)も同様に修正が必要です。Google Search Consoleを使用して、サイト内のエラーを監視し、迅速に対処することで、クロールバジェットの最適化を図ることができます。
404エラー(404 not found)とは?原因/確認方法/対処法/設定方法/SEOの影響を解説 404エラー(404 not found)とは?原因/確認方法/対処法/設定方法/SEOの影響を解説

robots.txtの最適化

robots.txtの最適化は、クローラーが重要でないページをクロールしないように指示するために有効です。robots.txtファイルを使用することで、クロールのリソースを重要なページに集中させることができます。

例えば、重複コンテンツや検索結果ページなど、クロールする必要がないページをrobots.txtでブロックすることができます。これにより、クローラーはこれらのページをスキップし、重要なページを優先してクロール可能です。

具体的な設定方法として、サイトの構造を把握し、クロールが不要なページを特定します。次に、robots.txtファイルに適切なディレクティブを追加し、クローラーにクロールさせたくないページを明示します。ただし、robots.txtでブロックしたページは検索結果に表示されにくくなるため、設定には注意が必要です。

リダイレクトチェーンの解消

リダイレクトチェーンの解消は、クロールバジェットの無駄を防ぐために重要です。リダイレクトチェーンとは、複数のリダイレクトが連続して行われる状態を指します。これがあると、クローラーはリダイレクトの度にリソースを消費し、重要なページのクロールが遅れる可能性があります。

例えば、ページAがページBにリダイレクトされ、さらにページBがページCにリダイレクトされる場合です。このようなリダイレクトチェーンは、クローラーに負担をかけ、クロールバジェットを無駄にします。

リダイレクトチェーンを解消するためには、直接的なリダイレクトを設定し、不要なリダイレクトを削除することが重要です。サイト全体のリダイレクト設定を見直し、最適化することで、クローラーがスムーズにサイトを巡回できるようになります。また、Google Search Consoleなどのツールを使用して、リダイレクトチェーンの発生を監視し、適切に対処することが推奨されます。

クロールバジェットのよくある質問

クロールバジェットのよくある質問

クロールバジェットでは、以下のような質問がよくあります。

  • クロールはランキング要素か?
  • nofollowはクロールバジェットに影響があるか?
  • AMPやalternate要素、埋め込みコンテンツも、クロールバジェットに含まれるか?

それぞれの質問に対する回答を紹介します。

クロールはランキング要素か?

クロールはランキング要素ではありません。クロール頻度が増えても、検索順位が直接上がるわけではありません。クロールは検索エンジンがサイトのコンテンツを発見し、インデックスするためのプロセスです。しかし、重要なページがクロールされることで、結果としてサイトのSEOが向上することはあります。

例えば、新しく追加された高品質なコンテンツがクロールされ、インデックスされることで、そのページが検索結果に表示される可能性が高まります。これにより、間接的にサイト全体の評価が上がり、検索順位が向上することがあるでしょう。

そのため、クロール自体が直接のランキング要素ではないものの、クロールが適切に行われることで、SEOにプラスの影響を与えることがあります。これを理解した上で、クロールバジェットを効率的に管理することが重要です。

nofollowはクロールバジェットに影響があるか?

nofollowは、特定のリンクをクロールしないように検索エンジンに指示するための属性です。サイト内リンクにnofollowを付けることで、そのリンク先のページがクロールされなくなります。しかし、外部サイトからのリンクにnofollowが付いていない場合、そのページは依然としてクロールされる可能性があります。

例えば、サイト内の特定のページが不要な場合、そのリンクにnofollowを付けることで、クロールバジェットを節約可能です。しかし、完全にクロールを防ぐためには、robots.txtでブロックするか、noindexタグを使用しなければなりません。

nofollowはクロールバジェットの管理に役立ちますが、他の手段と併用することで、より効果的にクロールバジェットを最適化できます。この点を考慮して、サイトのリンク構造を最適化することが重要です。
noindexとnofollowとは?違いや正しい書き方、確認方法 noindexとnofollowとは?違いや正しい書き方、確認方法

AMPやalternate要素、埋め込みコンテンツも、クロールバジェットに含まれるか?

AMPページやalternate要素、埋め込みコンテンツもクロールバジェットに含まれます。これらの要素は、クローラーがサイトを巡回する際に追加のリソースを消費します。例えば、AMPページはモバイルユーザー向けに最適化されたページですが、これもクロールの対象です。

同様に、alternate要素は多言語サイトで使用されることが多く、異なる言語バージョンのページを示します。これもクローラーがクロールするため、クロールバジェットに影響を与えます。埋め込みコンテンツ(例:YouTube動画や外部のウィジェットなど)も、クローラーがアクセスするためのリソースを消費する対象です。

これらの要素を適切に管理することで、クロールバジェットを有効に活用し、重要なページが確実にクロールされるようにできます。具体的には、AMPページやalternate要素を含むサイトマップを作成し、クローラーが効率的にアクセスできるようにすることが推奨されます。

クロールバジェットの影響を受けるサイトは少ない

クロールバジェットの影響を受けるサイトは少ない

クロールバジェットの影響を受けるサイトは、実際には少数派です。多くの中小規模のサイトは、クロールバジェットを特に意識する必要はありません。ほとんどのサイトでは、Googleがすべてのページを効率的にクロールし、インデックスしてくれます。しかし、特定の条件下ではクロールバジェットの管理が重要です。

重要なポイントとして、クロールバジェットを効率的に管理することで、サイト全体のSEO効果を向上させることができます。特に、XMLサイトマップの最適化や低品質ページの削除など、基本的な対策を講じることが重要です。まずはこれらの対策を実践し、サイトのクロール状況を定期的にチェックすることをおすすめします。


Download

Contact

監修者紹介

石田 哲也

取締役CMO

Twitter:@te2319
株式会社ニュートラルワークス 取締役CMO。1984年生まれ。高校卒業後にISD株式会社を起業。その後、株式会社オプトでWebマーケティングを学び、株式会社メタップスなど複数のベンチャー企業にて事業立ち上げを経験。前職はワンダープラネット株式会社でゲームプロデューサーとしてスマホゲームアプリの制作に従事。2018年に地元の神奈川へ戻り、ニュートラルワークスに入社。SEO/Web広告運用/サイト分析・改善など、Webサイトの運用改善~ゲームアプリ制作や数十万フォロワーのSNSアカウントの運用経験などWebビジネス全般を守備範囲とする。

■経歴
2003年 ISD株式会社/起業
2009年 株式会社オプト/SEMコンサルタント
2011年 株式会社メタップス/シニアディレクター
2013年 ライブエイド株式会社/執行役
2016年 ワンダープラネット株式会社/プロデューサー・BizDev
2018年 株式会社ニュートラルワークス/取締役CMO

■得意領域
Webサイト改善
SEO対策
コンテンツマーケティング
リスティング広告

■保有資格
Google アナリティクス認定資格(GAIQ)
Google 広告検索認定資格
Google 広告ディスプレイ認定資格
Google 広告モバイル認定資格

SEOコンサルティング
サービス資料

本物のプロによるSEOコンサルティングでGoogleに評価されるWebサイトへ!SEOコンサルティングのサービス概要・価格等をご覧ください。