与某些SEO想法相反,对于搜索引擎来说,您不仅需要关键字和反向链接,还可以开始对网站进行排名。如果您希望网站继续在搜索引擎结果页(SERP)排名上攀升,那么控制搜索引擎可以看到的内容非常重要。robots.txt协议可以帮助您解决这一问题。
了解最佳robots.txt做法是确保您的网站排名更高的关键。与此相关的特定内部SEO策略将取决于您自己的网站,但是在这里,使用robots.txt来确保获得所需结果时,一些最佳提示技巧。
什么是robots.txt
robots.txt是漫游器排除协议,这意味着它是一个小文本文件,是一种爬网优化方法。根据搜索引擎的说法,robots.txt文件可以告诉搜索引擎抓取工具该抓取工具可以从您的网站请求或不可以请求哪些页面或文件。
“这是关于搜索引擎如何阅读您网站的说明。创建此文件的目的是,您可以告诉爬虫您想让他们看到什么以及不希望它们看到什么,从而提高您的SEO性能。”StateOfWritingandBoomessays的技术作家GraceBell说。
robots.txt的作用
使用robots.txt文件,您可以控制想要和不希望搜索引擎显示的页面,例如用户页面或自动生成的页面。如果网站没有此文件,搜索引擎将继续抓取整个网站。
为什么需要优化Robots.txt?
robots.txt的目的不是完全锁定页面或内容,以使搜索引擎无法看到它。这是为了最大限度地提高其抓取预算的效率。他们的预算分为抓取速率限制和抓取需求。您告诉他们,他们不需要抓取非公开页面。
抓取速率限制表示抓取工具可以在给定网站上建立的连接数。这包括两次提取之间的时间。如果您的网站响应速度很快,则您的爬网率限制会更高,并且他们可以与该漫游器建立更多连接。根据需求对站点进行爬网。
您使搜寻器的工作更加轻松。他们将在您的网站上找到并排名更多的热门内容。当您的网站上有重复的页面时,这很有用。由于它们确实对SEO有害,因此您可以使用robots.txt告知抓取工具不要为其编制索引。例如,这对于在其站点上具有易于打印页面的网站是有益的。
如何修改Robots.txt内容
一般到网站根目录找到这个文件,直接修改即可;User-agent:应用下文规则的漫游器,比如Googlebot,Baiduspider等;Disallow:要拦截的网址,不允许机器人访问;Allow:允许访问的网址。
验证Robots.txt
找到并修改robots.txt文件后,您必须对其进行测试以验证其是否正常运行。为此可以到百度站长平台验证。这将展开菜单,您将在此处找到测试仪。如果有任何类型的问题,您可以在此处编辑代码。但是,只有将其复制到您的网站后,它们才能完全更改。
Robots.txt的最佳做法
您需要将robots.txt命名为robots.txt才能找到它并找到它。它必须在您网站的根文件夹中。任何人都可以看到此文件,而要做的就是输入带有网站网址的robots.txt文件的名称。因此,不要使用它来欺骗或欺骗,因为它是公共信息。
不要为特定的搜索引擎制定特定的规则。这样就不那么混乱了。您应该在robots.txt文件中添加不允许的语法,但不会阻止对它进行索引,因此必须使用noindex标记。抓取工具非常先进,他们像您一样看到您的网站。因此,如果您的网站使用CSS和JS进行工作,则不应从robots.txt文件中阻止这些文件。
如果您希望立即识别它,则应立即将其添加到百度,而不要等待该网站被抓取。页面上被禁止的链接可以视为nofollow。因此,除非某些链接在其他页面上,否则将不会为它们建立索引。站点地图应放在此文件的底部。
实施这些robots.txt最佳做法应可帮助您的网站在搜索引擎中获得更好的排名,因为这会使抓取工具的工作更加轻松。