搜索引擎扫描站点时发现的所有问题并不总是真正关键。通常会有一些可以忽略的小评论。
扫描可能会指出实际上并不干扰索引编制的问题。在这种情况下,导出结果、对其进行优先级排序、对其进行细分并进行深入分析非常重要。
在本材料中,我们确定了在对您的网站进行 SEO 审核时应特别注意的 5 个因素:
1. 内容可访问性是开始分析网站的主要方面。
内容可能因以下原因不可用:
- 通过 Robots.txt 文件阻止整个域。
- 关键页面(包括主页)上的 Noindex 或 nofollow 元标记。
- 提供与用户收到的不同的不正确的 HTTP 标头。
- 阻止包含资源(例如 JS)的文件夹,这会阻止页面为 Googlebot 等搜索引擎呈现。
如果 Googlebot 无法访问页面或其资源,它不会将其编入索引,这将导致搜索结果排名较低。
2. 能够扫描内容
- 一旦内容可用,确保其爬行不被阻止非常重要。
- 检查您的服务器设置、CDN 或防火墙是否未阻止来自 Googlebot 的请求(检查 Robots.txt 中的响应代码是否设置为 200 OK)。
- 确保所有 A HREF 链接在呈现的代码中可见,以便机器人可以抓取所有内部页面。
- 内部页面必须有足够的链接,以便 Googlebot 能够在不依赖 Sitemap.xml 的情况下发现它们。
- 确保 JS 脚本不会将 Googlebot 重定向到地理 IP 地址。
3. 渲染
现在已确认对内容的访问,您需要确保数据正确显示:
- 使用Google的URL测试来检查截图和源代码,以及是否阻止资源抓取。
- 检查哪部分内容是在 中渲染的,哪部分内容是通过 JS 渲染的。避免核心 JS 内容,除非您的网站使用服务器端渲染 (SSR)。
- 用户体验会影响排名,因此确保网站不会向用户歪曲信息或内容非常重要。
4. 一致性和规则
- 为整个站点设置 HTTP/HTTPS 重定向。
- 确保内部链接一致(例如 www/无 www、尾部斜杠/无尾部斜杠)。
- 确保 301 重定向正确处理不一致的 URL(例如,带尾部斜杠的重定向到不带尾部斜杠的重定向)。
- 如果可以通过更新源页面上的链接来解决,请删除所有内部重定向。
- 确保存在规范标签并最小化规范链。
5. 一般网站内容简介
- 确保内容符合用户意图、增加价值、涵盖所有关键主题并且不被抄袭。
- 删除没有价值的无用内容。
- 通过创建解决用户问题并回答他们的查询的内容来确定信息的优先级。
- 为最终用户编写,最大限度地减少理解所需的时间,并专注于实现最终目标。
专业的技术网站审核将有助于找出所有缺点并提高网站的 SEO 优化。您可以在我们的 SEO COMPUTER 工作室中获取有关任何 SEO 问题的建议。为此,请写信至电子邮件 信息@seo.computer。
编号 9144