机器人元标记选项

Discover tools, trends, and innovations in eu data.
Post Reply
arafatenzo
Posts: 130
Joined: Sun Dec 22, 2024 5:47 am

机器人元标记选项

Post by arafatenzo »

如果您没有明确告诉 Google 哪个 URL 是规范的,Google 会为您做出选择,或者可能认为它们具有同等权重,这可能会导致不必要的行为……

但如果你根本不想索引这些“额外”的页面怎么办?在我看来,在这种情况下,规范的解决方案才是最佳选择。

但是过去人们还使用过另外两种解决方案来将页面从索引中移除:

使用robots.txt阻止页面(不推荐,稍后我会解释原因)
使用robots 元标记来阻止单个页面
Robots.txt 选项
使用 robots.txt 来阻止网页的问题在于,使用它 台湾电话区号 并不意味着 Google 会从索引中删除网页。

根据 Google 搜索中心:

robots.txt 文件会告知搜索引擎抓取工具可以访问您网站上的哪些 URL。这主要是为了避免您的网站因请求过多而超载;它不是一种阻止网页进入 Google 的机制。

此外,robots.txt 中的 disallow 指令并不能保证机器人不会抓取该页面。这是因为 robots.txt 是一个自愿系统。不过,主要搜索引擎机器人不遵守您的指令的情况很少见。

无论如何,这都不是最佳选择。Google 建议不要这样做。

以下是Google对 robots 元标记的说明:

通过 robots 元标记,您可以采用细粒度的、特定于页面的方法来控制如何对单个页面进行索引以及如何在 Google 搜索结果中向用户提供该页面。

将 robots 元标记放在任何给定网页的 <head> 部分。然后,鼓励机器人通过XML 站点地图提交或自然地(可能需要长达 90 天)抓取该页面。

当机器人回来抓取该页面时,它们会遇到 robots 元标记并理解不在搜索结果中显示该页面的指令。

概括
总结一下:

使用规范标签是解决 Google 索引“额外”页面问题的最佳和最常见的解决方案——这是电子商务网站的常见问题。
如果您根本不想让网页被索引,请考虑使用 robots 元标记来指导搜索引擎机器人如何处理这些网页。
仍然感到困惑或想要有人帮您解决这个问题?我们可以帮助您处理多余的页面,并将其从 Google 索引中删除。在此安排免费咨询。
Post Reply