为什么robots文件更新了很久蜘蛛还在抓取被禁止的文件

创新互联建站导读:官方解释:在百度搜索资源平台使用robots工具进行更新,并及时关注文件生效时间,若3天后还未生效,建议提供具体问题截图和具体的URL在反馈中心反馈,以便排查问题。另外开发者自查robots.txt文件是否书写错误,robots文件往往放置在根目录下,包含一条或更多的记录,这些记录通过空行分开。

成都创新互联公司服务项目包括临泽网站建设、临泽网站制作、临泽网页制作以及临泽网络营销策划等。多年来,我们专注于互联网行业,利用自身积累的技术优势、行业经验、深度合作伙伴关系等,向广大中小型企业、政府机构等提供互联网行业的解决方案,临泽网站推广取得了明显的社会效益与经济效益。目前,我们服务的客户以成都为中心已经辐射到临泽省份的部分城市,未来相信会继续扩大服务区域并继续获得客户的支持与信任!

问题:为什么robots文件更新了很久蜘蛛还在抓取被禁止的文件?

回答:官方解释:在百度搜索资源平台使用robots工具进行更新,并及时关注文件生效时间,若3天后还未生效,建议提供具体问题截图和具体的URL在反馈中心反馈,以便排查问题。另外开发者自查robots.txt文件是否书写错误,robots文件往往放置在根目录下,包含一条或更多的记录,这些记录通过空行分开。

从百度方面的解释可以看到,理论上百度搜索对于robots文件的反应是比较快的,基本3天左右就能生效。

但要注意,这只是理论上的!就目前百度相关的工具来看,似乎很多都会出现延迟的情况。当然,不管具体什么原因,作为普通的站长,我们都不能去改变什么。能做的就是进行自我排查,在确定操作无误之后,再按照百度的要求,提供相关资料进行反馈。

还有创新互联建议,我们在做SEO的时候,要把重心放在站内优化上,坚持内容为王,提供优质的网站内容和用户体验。百度方面提供的这些工具,的确能够解决某些问题,但改变不了根本。

比如我们不能把网站收录寄希望于百度搜索的快速收录,虽然快速收录提供了快速蜘蛛抓取的通道,但真正影响到页面收录的还是页面的质量度。所以,我们需要把网站真正的做好,再通过这些工具进行辅助提升,这样相辅相成才是网站优化的正确方式。


网站名称:为什么robots文件更新了很久蜘蛛还在抓取被禁止的文件
本文网址:http://scyanting.com/article/ddoee.html