検索エンジンによるサイトのスキャン時に特定されるすべての問題が真に重大であるとは限りません。無視できる些細なコメントもよくあります。
スキャンすると、実際にはインデックス作成に影響を与えていない問題が示される場合があります。この場合、結果をエクスポートし、優先順位を付け、セグメント化し、詳細な分析を行うことが重要です。
この資料では、Web サイトの SEO 監査を実施する際に特別な注意を払う必要がある 5 つの要素を特定しました。
1. コンテンツのアクセシビリティは、サイトの分析を開始する主な側面です。
コンテンツは次の理由により利用できない場合があります。
- Robots.txt ファイルを介してドメイン全体をブロックします。
- ホーム ページを含む主要なページの noindex または nofollow メタ タグ。
- ユーザーが受け取るものとは異なる誤った HTTP ヘッダーを提供します。
- リソース (JS など) を含むフォルダーをブロックすると、Googlebot などの検索エンジンでページが表示されなくなります。
Googlebot がページやそのリソースにアクセスできない場合、インデックスが作成されず、検索結果のランキングが低下します。
2. コンテンツをスキャンする機能
- コンテンツが利用可能になったら、クロールがブロックされていないことを確認することが重要です。
- サーバー設定、CDN、またはファイアウォールが Googlebot からのリクエストをブロックしていないか確認してください (Robots.txt の応答コードが 200 OK に設定されていることを確認してください)。
- ロボットがすべての内部ページをクロールできるように、レンダリングされたコードにすべての A HREF リンクが表示されていることを確認してください。
- 内部ページには、Googlebot が Sitemap.xml に依存せずに内部ページを検出できるように、十分なリンクが必要です。
- JS スクリプトが Googlebot を地理的 IP アドレスにリダイレクトしないようにしてください。
3. レンダリング
コンテンツへのアクセスが確認されたので、データが正しく表示されていることを確認する必要があります。
- Google の URL テストを使用して、スクリーンショットとソース コード、およびリソースのクロールがブロックされているかどうかを確認します。
- コンテンツのどの部分が でレンダリングされ、どの部分が JS 経由でレンダリングされているかを確認します。サイトでサーバーサイド レンダリング (SSR) が使用されている場合を除き、コア JS コンテンツは避けてください。
- UX はランキングに影響を与える可能性があるため、サイトがユーザーに対して情報やコンテンツを誤って伝えていないことを確認することが重要です。
4. 一貫性とルール
- サイト全体の HTTP/HTTPS リダイレクトを設定します。
- 内部リンクが一貫していることを確認してください (例: www / www なし、末尾のスラッシュ / 末尾のスラッシュなし)。
- 301 リダイレクトが一貫性のない URL を正しく処理していることを確認してください (たとえば、末尾にスラッシュがあるリダイレクトから末尾にスラッシュがないリダイレクト)。
- ソース ページのリンクを更新することで解決できる場合は、内部リダイレクトを削除します。
- Canonical タグが存在することを確認し、Canonical チェーンを最小限に抑えます。
5. 一般的なサイト コンテンツ プロファイル
- コンテンツがユーザーの意図と一致し、価値があり、すべての重要なトピックを網羅し、盗用されていないことを確認してください。
- 価値を提供しない無駄なコンテンツを削除します。
- ユーザーの問題を解決し、質問に答えるコンテンツを作成して、情報に優先順位を付けます。
- エンドユーザー向けに書き、理解するのにかかる時間を最小限に抑え、最終目標の達成に集中します。
専門的な技術的な Web サイト監査は、すべての欠点を特定し、Web サイトの SEO 最適化を改善するのに役立ちます。 SEO COMPUTER スタジオでは、SEO に関するあらゆる問題についてアドバイスを受けることができます。これを行うには、電子メールに書いてください info@seo.computer。
ID 9144