robots禁止后还能索引收录,是什么原因?

张俊SEO
张俊SEO
张俊SEO
3569
文章
54
评论
2022年5月14日06:12:00
评论
5 880字阅读2分56秒

摘要

SEO优化中很多细节容易被人忽略,比方说robots文件。如果网站的robots协议文件禁止了搜索引擎蜘蛛,那么无论你怎么优化都不会被收录。有时候不希望搜索引擎抓取某些内容可以写robots.txt文件放到根目录,按理蜘蛛会首先读取这个文件,按照robots协议抓取相应的内容。但很多时候搜索引擎抓取收录了你robots.txt不允许抓取的内容,不是因为机器人不遵守,而是从抓取到索引到展现这个

SEO优化中很多细节容易被人忽略,比方说robots文件。如果网站的robots协议文件禁止了搜索引擎蜘蛛,那么无论你怎么优化都不会被收录。

有时候不希望搜索引擎抓取某些内容可以写robots.txt文件放到根目录,按理蜘蛛会首先读取这个文件,按照robots协议抓取相应的内容。

但很多时候搜索引擎抓取收录了你 robots.txt 不允许抓取的内容,不是因为机器人不遵守,而是从抓取到索引到展现这个过程需要一段时间,当搜索引擎已经抓取了,你才更新,那么之前抓取的是不会那么快删掉的,删除周期并不规律,一般是算法更新后生效的情况多些。但是许多站长们发现,蜘蛛并不太遵守这个协议。

下面说下几个新手可能会需要的信息。

1、robots.txt 怎么写?

各大搜索引擎的站长平台(英文叫 webmasters )都有详细说明,也有生成工具。

2、怎样确定 robots.txt 有效?

站长平台都有抓取 robots.txt 的工具,也会有“抓取工具”来确认某个页面是不是可以正确抓取。

3、怎样通知搜索引擎 robots.txt 已更新?

和上面的一样,通过站长平台的抓取工具重新抓取(有的是“更新”)即可。

4、让搜索引擎抓取了不应该抓取的内容怎么办?

5、整站禁止抓取,如何操作更有效?

有的搜索引擎索引是不遵守 robots.txt 的,只有在展现的时候遵守,也就是说,就算你 robots.txt 写明了禁止抓取,你会发现还是有机器人来爬。

所以如果是大目录或者是整站禁止抓取,建议在服务器软件(如 nginx)的代码段中直接判断搜索引擎 UA 并返回错误代码。这样一方面可以减轻服务器压力,一方面可以真正禁止抓取。

声明:转载此文是出于传递更多信息之目的。若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与本网联系,我们将及时更正、删除,谢谢。本站部分图文来源于网络,仅供学习交流,发表作品观点仅代表作者本人,本站仅提供信息存储空间服务,不承担连带责任。如有侵权,请联系管理员删除。
竞价托管
张俊SEO
  • 本文由 发表于 2022年5月14日06:12:00
  • 转载请务必保留本文链接:https://zhangjunseo.com/22246.html
网站被封的原因分析及解决办法! seo优化

网站被封的原因分析及解决办法!

  网站被封对于从事灰产行业的人员来说并不陌生,他们每天都会遇到很多被封的网站,可对于普通的SEO人员来说却是一个接受不了的打击。下面给大家分析网站被封的相关知识,希望引起重视,避免在后续SEO优化中...
搜索排名专员带你走出优化的误区! seo优化

搜索排名专员带你走出优化的误区!

摘要 古人云:活到老,学到老。随着人们的需求改变,搜索引擎的算法更新,SEO人员的优化方式也必须随之改变,否则,原有的排名可能一下就没了。下面搜索排名就分享一下SEO优化中的一些常见几个错误:搜索排名...
网站优化中原创文章真的更易收录吗 seo优化

网站优化中原创文章真的更易收录吗

  原始文章用来建立网站基础   实际上,当我们刚建立一个网站时,每天定期发布常规内容可以增进与搜索引擎的友谊。毫无疑问,搜索引擎更喜欢原始文章,但并非所有原始文章都将获得搜索引擎。   我认为原件应...
作为seo新手,搜索引擎工作原理你懂吗? SEM优化

作为seo新手,搜索引擎工作原理你懂吗?

摘要 搜索引擎是根据一定的策略,运用特定的计算机程序从互联网上搜索信息,在对信息进行组织和处理后,为用户提供检索服务,将用户检索相关的信息展示给用户的系统。搜索引擎包括全文索引、目录索引、元搜索引擎、...
广告也精彩
匿名

发表评论

匿名网友 填写信息

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: