究極のテクニカル SEO 監査チェックリスト

公開: 2024-06-05

ビジネス Web サイトを運営している場合、オンラインで目立つことが重要です。 検索エンジンのランキングを向上させるために、検索エンジン最適化 (SEO) 戦略を導入している可能性があります。 ただし、Web サイトのコピーとキーワードを活用することは、SEO を習得し、検索エンジンのランキング ページ (SERPS) で順位を上げることの一部にすぎません。 技術的な SEO にも注意を払わないと、貴重なページビューを逃してしまう可能性があります。

この記事では、検索エンジンがオンラインであなたを見つけ、視聴者と確実につながることができるように、技術的な SEO 監査チェックリストを作成する方法を説明します。

技術的なSEO監査とは何ですか?

技術的な SEO 監査には、検索エンジンがサイトをクロール、インデックス付け、理解する方法に影響を与える Web サイトの要素の分析が含まれます。 Google、Bing、Yahoo、またはその他のブラウザで何かを検索すると、検索エンジンのボットが Web を巡回し、Web サイト上の関連コンテンツを探します。 これらのボットは、情報のインデックス付け、整理、分類、保存を行います。 最後に、検索エンジンは結果をランク付けし、上位の検索結果を表示します。

技術的な SEO 分析を実行すると、検索エンジン ボットがお客様を見つけて上位にランクする方法に影響を与える Web サイトの部分を評価できます。 Web サイトの技術的な SEO を評価したら、SERP の順位を下げる可能性のある要素を改善できます。

ペンを持って監査チェックリストに記入している人の接写画像

テクニカル SEO チェックリスト: 監査を実施する 15 のステップ

最高の検索ランキングを得るために、ページ上の SEO と技術的な SEO を常に監視してください。 次の手順に従って、サイトの技術的な SEO 要素を監査し、サイトが結果の上位に上がるのを観察します。

1. クロールビリティの問題と robots.txt ファイルを確認する

クロール可能性とは、検索エンジンのボットがサイトを見つけてインデックスを作成するのがどれだけ簡単かを指します。

一般的なクロール可能性の問題には次のようなものがあります。

  • Nofollow リンク (検索エンジンに無視するようタグ付けされたリンク)
  • リダイレクト ループ (相互にリダイレクトしてループを作成する 2 つのページ)
  • 不適切なサイト構造
  • リンク切れ
  • 重複したコンテンツ
  • ゆっくり

サイトのアーキテクチャには、サイト上でどの URL をクロールできるかをこれらの検索エンジン ボットに指示する robots.txt ファイルもあります。 robots.txt ファイルを使用せずにサイトを構築すると、リクエストが過負荷になり、サイトの速度が低下し、応答性が低下する可能性があります。 各サイトにはクロール制限とクロール要求制御であるクロール バジェットがあります。 複数のバックリンクを持つ人気の Web サイトは通常、クロール需要が高く、ボットはより頻繁にクロールしたいと考えます。

サイトにはクロール制限もあります。これは、ボットがサイトをクロールしてインデックスを作成できる速度を指します。 ここで、サイトの過負荷を防ぐために robot.txt が登場します。 ただし、robots.txt を誤って入力すると、検索エンジンがページ全体、さらには Web サイト全体を見つけることができなくなる可能性があります。

技術的なサイト監査の一環として、サイト上の各 URL のクロール可能性を評価し、ボットから遠ざける可能性がある問題を修正します。

2. XML サイトマップとインデックス作成可能性の問題を特定する

XML サイトマップは、検索エンジンが Web サイトの重要なページを見つけてクロールできるようにするために、Web サイトのすべての重要なページをリストしたファイルです。 XML サイトマップは、Web サイトがどのように構造化されているかを Google やその他の検索エンジンに伝えます。 このツールを使用すると、検索エンジン ボットによる Web サイトのコンテンツのインデックス作成が容易になります。

最も一般的な問題の 1 つは、XML サイトマップが古く、新しい URL が含まれていない場合に発生します。 この問題が発生すると、検索エンジンがユーザーを検索結果の欠落しているページに誘導する可能性があります。 また、サイトマップと実際のサイト構造の間に不一致が生じる可能性があり、インデックスの品質に影響を与え、SERP が低下します。

Web サイトにコンテンツを追加または更新するときは、XML サイトマップが最新であることを再確認してください。 Web サイトに大量のコンテンツがある場合は、XML サイトマップを小さなサイトマップに分割し、ローカルで整理することを検討してください。

インデックス作成可能性に関するその他の注意すべき問題には、次のようなものがあります。

  • リンク切れ
  • ページ上の内部リンクの欠如
  • 壊れたページ (4XX エラー コード)
  • モバイル版のユーザーエクスペリエンスに関する問題

3. サイトアーキテクチャの主要要素を分析する

サイトのアーキテクチャ、またはページの階層構造にも注意を払うことが重要です。 検索エンジンのランキング要素ではありませんが、サイト構造がクリーンであれば、ボットがサイトをクロールしやすくなり、ユーザー エクスペリエンスが向上します。

電話による自動カスタマー サービス ループに陥っていることを考えてください。 実際の人物に転送される前に複数のボタンを押す必要がある場合、実際に転送されるまでにイライラすることになるでしょう。

同じ原則がウェブサイトにも当てはまります。 誰かが Google 検索であなたの商品ページに行き当たり、そこから離れたとしても、再びそのページを見つけることができるはずです。 欲しい商品を見つけるために、整理されていない複数の商品ページをクリックしなければならない場合、Web サイトから離れて二度と戻ってこない可能性があります。 サイトがよく整理されていると、検索エンジンがクロールしてインデックスを作成しやすくなります。

次の要素を念頭に置いて Web サイトを監査します。

  • ナビゲーション: ユーザーはサイトをどの程度簡単にナビゲートできるでしょうか?
  • 柔軟性: サイトのアーキテクチャは、非階層コンテンツやマルチレベル メニューに収まらないコンテンツを考慮していますか?
  • 相互接続性: 異なる階層レベルのページはどのように接続されていますか?

JavaScript SEO を使用して、JavaScript を利用している Web サイトの部分を評価します。 このコーディング言語は、ユーザー エクスペリエンスを向上させる Web サイトのインタラクティブな要素でよく使用されます。 これらを高度な技術的な SEO 監査の一部として含めることで、Google がこれらの機能をクロールしてインデックスに登録するのに役立ちます。

4. サイトの内部リンク構造の健全性を評価する

Web サイト上の他のページを指す内部リンクは、インデックス付け可能性の重要な要素です。 これらは、検索エンジンのボットがサイトのどの部分が最も重要で、その内容が何であるかを理解するのに役立ちます。 サイトに内部リンクがないと、検索エンジン ボットがサイトを関連性の高い検索結果として確立するのが難しくなります。

内部リンクは、検索エンジンのボットが Web ページの関連性を確立するのに役立ちます。 サイトが成長するにつれて、孤立したコンテンツ、つまり、そのサイトを指す内部リンクが存在しないコンテンツが作成される可能性があります。 ボットをこれらのページに誘導するリンクがない場合、誰も検索エンジンでボットを見つけることができません。

技術的な SEO 監査の一環として、Web サイトの各ページをチェックして、Web サイト上にそのページへの内部リンクが少なくとも 1 つあることを確認します。 次に、すべての内部リンクを評価し、間違っているか壊れているリンクを修正します。 ユーザーがページを簡単に見つけて共有できるように、URL 構造に注意してシンプルにしてください。

5. 重複したコンテンツや共食いされたコンテンツを探す

重複したコンテンツや共食いされたコンテンツは、検索エンジンがサイトを利用できなくなる可能性があります。

  • 重複したコンテンツ: これは、同じであるが URL が異なるページ上のコンテンツを指します。
  • 共食いコンテンツ: このコンテンツはまったく同じではありませんが、Google が 2 つのページが同じであると判断するほど類似しています。

検索エンジンは個別の情報を含むページのインデックスを作成することを好むため、どちらの種類のコンテンツでもサイトのインデックス作成の問題が発生します。 SEO のためにコンテンツを最適化するときにこれを行うと、コンテンツが重複して表示される可能性があります。

Web サイトに重複したコンテンツを公開する他の正当な理由がある場合があります。 たとえば、e コマース サイトをお持ちの場合は、同じ製品を販売する他の小売業者と同じ、製品メーカーが提供する説明を使用できます。 この場合、同様のコンテンツを含むページにつながる URL が複数存在することもあります。

あるいは、複数のブランドのジーンズを販売している場合、商品説明が Google に同じだと思わせるほど類似している可能性があります。

これを修正する一般的な方法は、正規 URL を作成することです。正規 URL は、クロールする重複コンテンツのバージョンを検索エンジン ボットに指示するリンク要素です。 たとえば、デニム製品ページの 1 つを正規ページとして指定すると、Google はデニムを検索しているユーザーにそのページを表示し、重複していると思われる他の製品ページを無視します。

ページのインデックスを作成しないようにボットに指示する「インデックスなし」ディレクティブを追加することもできます。 ただし、ページを追加するとインデックスを再作成するのが難しいため、これは慎重に使用する必要があります。

6. サイトのリダイレクトを監査する

URL がサイト上で指す場所を変更する場合は、リダイレクトを追加できます。 たとえば、ブランド名を変更して会社名を変更した場合は、リダイレクトを使用して古い Web サイトを新しい Web サイトにポイントすることができます。

限られた期間だけユーザーを新しい Web サイトに誘導する一時的なリダイレクトを使用することもできます。 この戦術は、特定のランディング ページで広告キャンペーンを追跡する場合に一般的です。 視聴者が Web サイトでセール商品を探しているときに、一時的にランディング ページにリダイレクトできます。

ページ上のテクニカル SEO の一環として、すべてのリダイレクトを確認し、リダイレクトがまだ機能し、ユーザーを適切な場所に誘導していることを確認します。

7. モバイルでのサイトのパフォーマンスを確認する

すべてのオンライン検索の約半分はモバイル デバイスからのものであり、Google はデスクトップ サイトよりも先にモバイル サイトをインデックスに登録しています。 サイトがモバイルに対応していない場合、モバイル ファースト インデックスが原因で、何百万もの潜在的なビューが失われる可能性があります。

モバイル フレンドリーなサイトを作成するためのベスト プラクティスには次のようなものがあります。

  • サイトのモバイル速度をテストして、高速で応答性が高いことを確認します。 読み込み時間が遅いという理由だけでユーザーがクリックしてサイトから離れてしまうのは望ましくありません。
  • モバイル フレンドリー テストやその他の高度な技術的な SEO 戦略を使用して、モバイル ユーザーがサイトをどのように操作するかを分析します。 楽しいユーザー エクスペリエンスを提供し、モバイル デバイスから簡単に操作できる必要があります。
  • サイトの画像やビデオなど、応答しないページ要素を探します。 テキストがユーザーが読めるのに十分な大きさであることを確認し、モバイルのユーザビリティを妨げるポップアップやその他のサイト要素がないかどうかを確認します。

8. パフォーマンスの問題と主要な Web バイタルを評価する

サイトはデスクトップ ユーザーに対して適切なパフォーマンスを発揮する必要もあります。 遅い、応答しない、またはナビゲートしにくい場合、これらのユーザーはサイトを離れる可能性もあります。 次の指標を含むコア Web バイタルをテストします。

  • Largest Contentful Paint (LCP) : ページの最初の読み込み速度を測定します。
  • Interaction to Next Paint (INP) : ページが各ユーザーにどれだけ早く応答するかを測定します。
  • 累積レイアウト シフト (CLS)各ユーザーにとってページが視覚的にどの程度安定して見えるかを測定します。

Google の Search Console を使用すると、Web の重要な要素を測定し、サイトのパフォーマンスに影響を与える可能性のある要素を修正できます。 ページスピードに関する洞察は、Web サイトが常に迅速に読み込まれるようにするのに役立ちます。 Google コンソールやその他のウェブサイト パフォーマンス ツールを使用して、各ユーザーに最適なエクスペリエンスを作成します。

9. メタタグの問題を見つける

メタ タグは、検索エンジンに関連情報を提供するために、各 Web ページの HTML コードに含まれています。 Web ページを作成するときに、タイトル タグ、メタ ディスクリプション、メタ キーワードを追加すると、検索エンジン ボットがページをより正確にクロールしてインデックスを作成できるようになります。

  • メタ タイトル タグ: 検索エンジンに Web ページのタイトルを伝え、SERP 結果を支援します。
  • メタ ディスクリプション: 検索エンジンの結果で Web サイトの下に表示され、サイトへのオーガニック トラフィックを誘導する優れた方法です。
  • メタキーワード: ページに表示されるコンテンツについての詳細を検索エンジンに伝えます。

メタタグの問題により、検索ランキングが低下する可能性があります。 サイトを監査するときは、各メタ タグが一意であり、その関連ページに適切であることを確認してください。 各ページには、短すぎず長すぎないメタ タイトルとメタ説明も含める必要があります (説明は 160 文字までに制限してください)。

ユーザーがオンラインであなたを見つけるために何を検索するかを考え、タグをユーザーの意図に合わせてください。 メタディスクリプションを区別して、重複しないようにします。 類似したメタ記述が多すぎると、ボットが混乱する可能性があります。

サイトにメタ ロボット タグが存在する場合もあります。 これらのコマンドはボットに何をすべきかを指示します。 これらのタグに含めることができる属性の例は次のとおりです。

  • Index : ページのインデックスを作成するようにボットに指示します。
  • Noindex : ページのインデックスを作成しないようにボットに指示します。
  • Follow : ボットがページ上のリンクをクロールできることを示します
  • Nofollow:ボットがページ上のリンクをクロールできないことを示します

これらのコマンドは元に戻すのが難しいため、ロボット メタ タグは検索エンジンによるページのクロール方法を制限する場合にのみ使用してください。

10. 正規化の問題を特定する

重複コンテンツの問題を調査する際に、正規タグを使用して、検索でどの Web ページを優先するかを検索エンジン ボットに指示する方法について説明しました。 ただし、正規タグを誤用すると、ボットがオンラインであなたを見つけるのが難しくなる可能性もあります。 SEO サイト分析中に、次の一般的な技術的な SEO 問題を確認してください。

  • クロールまたはインデックス作成がブロックされている URL に正規タグを追加する
  • 「noindex」タグを持つページ、または robots.txt ファイルでブロックされているページに正規タグを追加する
  • サイトマップに非正規ページを含める
  • 重複コンテンツを含む正規化されていないページへの内部リンクの追加
  • 正規タグをまったく使用していない

正規 URL を定期的にチェックすると、これらの問題が発生したときに特定して修正するのに役立ちます。 設定した優先ページがインデックス付けされているページと一致することを再確認することもできます。 Google Search Console を使用して正規タグを識別し、管理します。

11. Hreflang 属性の分析

hreflang 属性は、地理的領域でページを表示する言語を指定する HTML タグです。 たとえば、イタリアの顧客をターゲットにしている場合、サイトに hreflang 属性を追加すると、メタ ディスクリプション、タグ、その他の要素がこの地域の人々にイタリア語で表示されるようになります。

hreflang 属性に関する一般的な SEO の技術的な問題には次のようなものがあります。

  • リターン リンクがありません: hreflang 属性を持つページには、参照するページへのリンクが含まれている必要があります。
  • 間違った言語コード: 正しい標準化されたコードを使用して、サイトが正しく表示されることを確認します。
  • canonical タグが欠落しているか正しくありません。Hreflang と canonical タグは組み合わせて使用​​する必要があります。
  • ブロックされたページ: 検索エンジンは、「noindex」ページの hreflang タグを無視します。

12. コードとマークアップの問題を深く掘り下げる

サイトのコードとマークアップは、コンピューターやモバイル デバイスに各要素を表示する方法を指示します。 検索エンジン ボットはサイトをクロールするときに、HTML コードと構造化データのマークアップを読み取り、サイト内の内容を確認し、インデックスを付けます。

構造化データ マークアップ (スキーマ マークアップ) は、検索エンジンがサイト上で最も重要なコンテンツを判断し、それがなぜ重要であるかを分析するのに役立ちます。 たとえば、ボストンでタイ料理レストランを経営している場合、スキーマ マークアップは、検索エンジンがあなたをレストランとして認識するのに役立ちます。

サイトにスキーマ マークアップを含めないと、検索エンジンがページのインデックスを作成し、正しくランク付けできない可能性があるため、サイトの可視性が低下します。 ツールを使用して各ページのソース コードとスキーマ マークアップを評価すると、構造化データに関連付けられた機能を確認できます。 エラーを修正して、ページを探している人にページが正しく表示されるようにします。

13. HTTPS プロトコルの検証

HTTPS は、Web サイト上のユーザー データの暗号化、認証、保護に使用されるプロトコルの安全なバージョンです。 以前は、電子商取引サイト、銀行、および機密データの入力が必要なその他の Web サイトでは、HTTPS が一般的でした。

インターネット ユーザーにとってデータ プライバシーは非常に重要であるため、Google はすべてのサイトに SSL 証明書を取得することを要求しています。 これがない場合、検索エンジンは検索結果で Web サイトを優先しません。 Web サイトのすべてのページに目を通し、SSL 証明書があること、および URL に HTTP プロトコルではなく HTTPS プロトコルが含まれていることを確認してください。

14. 4XX および 5XX ステータス コードを確認する

検索結果をクリックして「404 ページが見つかりません」エラーが表示されたことがあるなら、4XX および 5XX ステータス コードについてはご存知でしょう。 4XX エラーは、存在しない Web サイト、またはアクセスが制限されている Web サイトを指します。 URL のスペルを間違えると、4XX エラーに遭遇することがよくあります。 ただし、サイトの一部を削除し、誰かが古い URL をクリックした場合にも発生する可能性があります。

5XX エラーは、Web サイトではなくサーバーに問題があることを意味します。 SEO 技術分析を行う場合は、個々のページ URL を評価して、4XX エラーと 5XX エラーが発生していないことを確認します。 エラーを見つけた場合は、それをメモし、影響を受けるページを修正してください。

顧客が 5XX エラーに頻繁に遭遇する場合は、サーバーをアップグレードするか、コンテンツ管理システムのバグを探す必要があるかもしれません。

15. サイトのログファイルを分析する

ログ ファイルとは、人間または検索エンジンがサーバーに対して行ったすべてのリクエストを表示するデータのコレクションを指します。 誰かがサイトをクリックするたび、または検索エンジンがサイトをクロールするたびに、その訪問がログ ファイルに記録されます。

ログ ファイルには、検索エンジンがサイトとどのようにやり取りするかに関する貴重な情報が含まれています。 何を探すべきかがわかれば、クロールの問題、バグ、その他の SEO の技術的な問題を特定できます。 ログ ファイルには、Google やその他の検索エンジンがサイトをクロールしている頻度と、どのページがクロールされているかが表示されます。

このファイルには、サイトの読み込み速度と、ページがユーザーを別のページにリダイレクトしているかどうかも表示されます。

ログ分析ツールを使用して、ログ データを表示および分析します。 SEO の潜在的な技術的な問題をメモして、問題を修正してページの応答性を高めます。

Compose.ly が SEO の技術的な問題を特定するのにどのように役立つか

テクニカル SEO は、サイトへのオーガニック トラフィックを驚くほど促進します。 それは気が遠くなるかもしれませんが、一人で行う必要はありません。 テクニカル SEO スペシャリストを常駐させてウェブサイトを分析してもらい、SERP の順位を下げている可能性のある潜在的な問題を解決できるようにすると役立ちます。

Compose.ly の SEO 技術専門家は経験豊富で、何を探すべきかを知っています。 私たちはお客様のサイトを深く掘り下げ、技術的な SEO 戦略を微調整してパフォーマンスを向上させます。

Web トラフィックの持続的な減少を経験している場合、オーガニック成長を促進したい場合、新しい Web サイトを運営している場合、または Web サイトを更新してから時間が経っている場合でも、技術的な SEO 監査はあらゆる段階で役に立ちます。

よくある質問