如何处理 SEO 网站迁移

已发表: 2017-10-13

在网站的生命周期中,SEO 网站迁移阶段是重要的时刻,在此期间您必须注意许多细节,以免对 SEO 产生负面影响。

每个站点迁移都是不同的。 迁移并不意味着立竿见影,但它是改善您的 SEO 的最佳时机。 必须理解的是,当一个站点发展时,搜索引擎并不总是处于相同的时间,并且它或多或少会有一个重要的适应时间。 然而,这是网站提高技术质量、使用 HTML5 和 json-ld 丰富代码、由于内部链接架构、编辑丰富性和向搜索引擎返回强大的 SEO 信号而形成孤岛的最佳时机。

根据发生的变化,有几种类型的站点迁移,通常涉及以下一个或多个元素:

  • 主机 / IP 地址
  • 域名
  • 网址结构
  • 网站架构
  • 内容
  • 设计理念

迁移最困难的站点涉及上述大部分(或全部)的变化。

如果 SEO 重新设计管理得当,迁移前和迁移后都会有一个。 花时间了解网站的痛点并努力纠正它们。 提高性能,使可抓取性更容易。 从长远来看,您将成为赢家。

在本文中,我们将为您提供安全 SEO 网站迁移的最佳实践。

SEO网站迁移的关键步骤、操作和文件

受控迁移是精心准备的迁移。 因此,如果您遵循一系列结构化步骤,您将是有效的。 这些步骤还允许您积累一组文档和数据,您可以在整个迁移周期中依赖这些文档和数据,然后确定迁移的好(或坏)影响。

下表列出了根据目标的操作和迁移文档:

目标行动文件
网站图片– 初步 CrawlAggregate 服务器日志数据抓取报告

技术文件(robots.txt、站点地图、旧重定向文件)

已爬网/未爬网 url、孤立页面和每个天的爬网频率表

从外部工具编译、聚合和存储数据– 阅读数据Google Analytics、Omniture、AT Internet、Search Consoles (Bing/Google)、SemRush、MyPoseo、Majestic、SEObserver、... 按表达/利基导出位置、点击率和印象

分析数据导出

反向链接导出、TF/CF、利基、

从利基市场导出关键词

关键词搜索

数据交叉

确定需要改进的领域– 审计和数据分析任务列表
主题优先级– 收益/努力的评估投资回报矩阵
规格– 收益/努力的评估对 SEO 友好的代码的要求表达式和附件
生产- 发展

– 知识实施

围绕关键点进行团队讨论

质量代码

修改检查– 技术配方

– 代码验证代码保证

比较抓取报告

每日更正

报告

验证 D 日要进行的测试

居住– 部署新代码和文件(站点地图、robots.txt、重定向)

– 新站点的完整性测试

- 新站点地图的声明

- 使用 Search Console 强制引擎抓取

在生产中传递新代码

确保最新的 XML 站点地图文件

验证机器人。 txt优化

重定向文件(如果适用)

在生产中具有预期和稳定的代码

实时监控- 爬行爬行

- 重定向网址的抓取

返回数据比较

关键绩效指标发展报告

迁移前的数据编译和分析

初步抓取

了解站点的问题对于准备规范和迁移监控 KPI 至关重要。 为了更好地了解该站点并发现需要改进的地方,我们邀请您在迁移前拍摄该站点的完整照片。

为此,请按照与 Google 所遵循的原则相同的原则启动抓取:考虑机器人。 txt,后跟带有查询字符串的链接。 如果您的迁移包括多个子域,OnCrawl 允许您发现和爬取子域。

圣杜现场

有关站点架构和健康状况的信息示例

如果您有可能收集日志数据,请不要犹豫,为每个 URL 这样做。 Crawl/Logs 交叉引用的数据可用于确定一组页面的成功因素。

字数范围

根据字数查看bot hits/day

根据经验,我们知道 Google 的抓取会受到多个页面因素的影响。 Google 不会以相同的频率浏览所有页面。 它的索引不会为这些页面刷新,因此它会倾向于降级它们。 索引中过时的页面不再一定是用户请求的“最佳答案”。 爬取频率、索引更新和排名之间有很强的关系。

如果出现以下情况,页面将被较少抓取:

  • 建筑太深了;
  • 它不包含足够的单个文本;
  • 它没有足够的内部链接(也包括外部链接);
  • 加载速度不够快或太重;
  • … ETC。

想了解更多关于页面内因素对谷歌抓取的影响,可以阅读《谷歌重要性页面》一文,让你详细了解谷歌与“抓取调度”相关的专利。

初步爬网可让您了解您的网站。 它还允许您对将成为优化验证页面的页面进行分类。 您的初步分析必须将这些数据考虑在内,以纠正影响抓取的因素。

从外部工具读取数据

谷歌搜索控制台/必应搜索控制台/必应搜索控制台

在 Google 和 Bing 的 Search Console 上,您会找到定性和定量数据。 收集这些数据以监控改进是非常好的做法。

我们邀请您再次交叉检查这些数据,以了解定位自己的页面的共同特征、缺少关键字或与移动/AMP 或 SEO 错误相关的问题。

要存储的重要数据:错误的数量和类型、抓取预算(每天的点击次数)和加载时间、HTML 改进、索引页面的数量、表达式和 url 的位置/点击率/印象。

统计探索 GSC

每天浏览的页面 - 用于比较迁移前后的抓取预算曲线

来自搜索引擎的这些视图让您了解他们如何解释您的网站。 它也是 KPI 迁移后监控的基础。 重要的是要考虑引擎报告的 SEO 错误以首先纠正它们。

排名和知名度

MyPoseo 等定位跟踪工具简化了对网站可见性和关键字的研究。

排名和知名度 - myposeo

除了 Google Search Console 数据之外,您还需要了解您在利基市场的可见度。 这些数据对于您的迁移后分析至关重要。

myposeo 跟踪

分析

跟踪和分析解决方案可用于收集用户的使用数据。 它们也是有关您的网页在自然访问、跳出率、转换隧道、路线和网站吸引力方面的表现的信息来源。 您需要导出数据,以便检测需要改进的区域并存储它们以供您进行实时分析。

通过 Google Analytics 导出过去 12 个月内至少获得一次访问的所有 URL 是检索大量有价值的索引页面的一种方法。
对登录页面进行分类以优先考虑您的操作,不要错过未审核的页面,并再次尝试检测性能因素以激发您的建议。

分割

在初步爬网和外部数据记录之后,您将拥有迁移边界的完整视图。 根据您的分析,您可以创建可根据不同指标进行分组的页面集,以限定您的迁移。

使用 OnCrawl,可以创建 10 组或一组 15 组页面。 为什么不使用此功能来创建迁移集?

对每个需要改进的领域进行分类。 OnCrawl 允许您根据 350 多个指标创建组——例如差、重、重复、机器人未访问、用户访问少、传入链接太少或太深。 他们将允许您对重新设计进行后验验证。

专业提示:您可以将所有响应时间超过 1 秒的页面、抓取率较差的页面以及排名数据和人类行为的交叉(GSC 上的 CTR 或分析上的跳出率)分组。 您将能够做出正确的决定。
交叉检查爬网、日志和分析数据是为您的迁移执行完整和现实分析的最佳方式。

要编辑、创建、删除的页面

由于收集到的数据,您将能够识别访问次数最多的页面、重复内容率最高的页面、架构中的缺失页面等。

您应该记住,重组除了纠正最不利的 SEO 问题和 SEO 合规性外,还应该让您的网站围绕引擎用户的关键语句进行丰富和重新调整。 他们用自己的话搜索您页面中存在的数据。 探索和语义调整的工作是一项经常被忽视的任务,但它可以在排名方面获得最佳性能。

需要添加新的中心和登录页面以最适合用户的需求。 它们必须与网站最不适合的查询对齐。

[案例研究] 避免重新设计对您的 SEO 造成不利影响

在他们的网站重新设计一年后,EasyCash 很快意识到他们所希望的性能并不存在。 他们确定并解决了几个 SEO 障碍。
阅读案例研究

内部链接管理

内部链接现在比以往任何时候都成为成功进行 SEO 重组的关键因素之一。 锚的变化、内部流行度扩散的优化和锚的语义对齐是强大的盟友。

Inrank 流 - 站点迁移

使用 OnCrawl 表示优化的内部链接

花点时间了解您的网页的受欢迎程度是如何通过各种链接块传播的。 尽量减少页面上不相关的链接。 最好的例子是超级菜单。

避免从所有页面链接到所有页面; 这是适得其反的。 从 HTML 代码中删除不属于同一筒仓的链接,同时保留指向类别标题的链接。

导航也是一个机器人陷阱。 尝试使用一种算法在页面之间创建快捷方式,该算法允许您跳转到最近的单位、十、百。

尝试尽可能多地改变指向页面的锚点。 这使您可以向引擎显示您正在使用广泛的语义领域,并有利于页面重要性得分,从而有助于页面的抓取。

还要考虑减少或分割页脚链接,以避免创建没有吸引力和非常受欢迎的页面。 CGU 或时事通讯订阅链接以及来自您域的传出链接与内部页面排名泄漏一样多。 还要注意社交网络的链接,这些网站通常比您的网站大,而且它们会占用您网站的页面排名。

重定向

这项活动需要很多关注,因为事情可能会出错。 检索当前的重定向规则很重要,这样您就可以将它们与新的树结构(如果有)匹配。 旧的重定向规则需要更新以避免重定向字符串。
还需要检查所有旧网址是否以 301 重定向到新网址。

可以通过导出所有旧 url 的列表并将它们添加到最大深度为 1 的起始 url 来进行测试爬网。
对于 HTTPS 迁移的特殊情况(无论是否更改 url 结构),请确保所有内部链接都已更新(没有从 HTTPS 页面到 HTTP 页面的内部链接)。 有海关字段 OnCrawl 来执行此操作。

专业提示:创建要排名的页面的快捷方式页面(产品页面感谢中心页面),改善加载时间,增加页面内容量,创建站点地图和更正孤立页面,规范页面,减少重复内容......
重要的是要强调高流量页面需要特别注意,但在 SEO 中每个 URL 都很重要。

重要的是要强调高流量页面需要特别注意,但在 SEO 中每个 URL 都很重要。

配方阶段

迁移的这个重要阶段是您需要注意源代码中的任何错误或理解需求表达的时期。

保护搜索引擎开发平台

htpasswd 是推荐的解决方案,可避免搜索引擎看到您抓取的暂存网址。 此方法还确保您不会运行阻止 robots.txt 文件或元机器人“禁止”。 它比看起来更频繁地发生。

专业提示:您正在开发的站点必须是 ISO 以保证未来站点的代码。

检查每个代码交付的质量

在此阶段,您必须通过在食谱平台上定期启动爬网来检查站点是否朝着正确的方向移动。 我们建议您创建 Crawl Over Crawl 来比较两个版本。

不要犹豫,检查一下:

  • 链接果汁传输和内部链接;
  • 页面深度的演变;
  • 错误 40x 和这些页面的链接;
  • 错误 50x 和这些页面的链接;
  • 标题、元描述和机器人标签的质量;
  • 源代码和重复内容元素的质量。

确保代码符合 W3C。 我们经常忘记它,但它是谷歌的第一个建议,语义数据不包含错误,源代码处于野心级别,优化规则应用于整个边界。

专业提示:需要更新旧的重定向规则以防止重定向指向新的重定向。
有必要检查所有旧网址是否以 301 重定向到新网址。 可以通过导出所有旧 url 的列表并将它们添加到 start url 中进行测试爬网,最大深度为 1。

站点地图。 xml 文件

当代码稳定并且所有的url都被测试爬虫发现后,就可以导出站点的所有url了。 这允许您构建您的 sitemap.xml 文件(或 sitemap_index.xml)。
在您的 robots.txt 中添加地址并将它们放在站点的根目录中(如此处提供的站点地图规范所建议的那样)

专业提示:通过网站的大部分创建站点地图,您可以在 Google Search Console 中独立跟踪网站每个部分的索引。
创建一个包含所有旧重定向 url 的站点地图文件,以强制引擎传递每一个。

最新版本的 OnCrawl 将包含一份与 sitemap.xml 研究相关的报告。 它将允许您验证您没有错过 url,您的站点地图没有指向规范与 url 不同的页面,或者它们指向 404。

站点地图中的页面

站点地图分布

站点地图分析报告示例

了解有关站点地图的更多信息。 xml。

过渡到现场版的日子

配方完成,代码由所有玩家验证。 所以你有所有的绿色信号来传递新的代码。 SEO 不会受到影响,因为重要的页面值得特别关注。 但是,您也是 Google 方面将要执行的所有操作的保证人。

以下是您作为 SEO 的任务列表:

  • 检查 robots.txt 文件;
  • 在线查看代码;
  • 检查在线站点地图;
  • 检查重定向;

如果一切正常:

  • 强制马达爬行
  • 实时检查日志和状态代码

您可以为每个步骤启动专门的爬网,目标是限定页面,以便在更窄的范围内使用爬网来获得反应性。

专业提示:定义最大深度为 1 的爬网以测试更改的参考页面,而不测试整个站点。

实时跟进

在线发布后,您必须能够比较之前/之后的 SEO,并确保迁移产生了积极影响或负面影响最小。

新站点启动并运行后,需要监控任何更改的影响。 作为第一步,每周监控排名和索引。 估计要等短短一个月才能得出结论,所以一定要耐心等待。

迁移后检查网站管理员工具中的网站性能是否存在异常情况。

在检查排名之前,请遵循搜索引擎对页面的索引率和缓存。

正如我们在介绍中所说,引擎将需要一些时间来适应您的新版本,并且在此期间职位可能会非常不稳定。

在迁移前后启动 Crawl Over Crawl(Crawl Over Crawl 比较)来比较您的数据是提高效率的最佳方式。

结论

迁移对于 SEO 来说是一个重要且通常有益的时期。 OnCrawl 将陪伴您完成这些阶段。 从最初的爬取到验证指标的跟进以及通过日志分析搜索引擎反应,您的操作工作将得到简化。

开始免费试用