如何进行robots.txt中的robots优化设置-创新互联
本篇文章为大家展示了如何进行robots.txt 中的robots优化设置,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。
目前成都创新互联已为上千家的企业提供了网站建设、域名、网页空间、网站托管、企业网站设计、东港网站维护等服务,公司将坚持客户导向、应用为本的策略,正道将秉承"和谐、参与、激情"的文化,与客户和合作伙伴齐心协力一起成长,共同发展。1。你是否知道robots.txt中文的意思?
2。你是否知道404页面应该屏蔽?
3。你的企业站,每个页面是否都有“关于我们”,并且还得没屏蔽掉?
4。你是否知道设置好robots.txt,是有利于提升网站整体权重?
5。你想知道robots.txt基本写法?
6。robots.txt该如何写,才优化很好。
1。robots.txt的中文意思是:搜索引擎公共协议。搜索引擎到你的网站,是先看robots.txt,按照上面写好的协议再抓取你的网页。
2。每个网站都应该要有404页面,假如没有,会导致 1)减少网站PV 2)减少流量 3)搜索引擎对你的网站不有好,因为你的网站用户体验度不好。
每个网站都有很多错误页面,每个错误页面都应该做一个404页面,那么每个404页面都是一样的。一旦你的404页面太多,你还让搜索引擎去收录,就会导致网站把权重分给这些404页面,这值得吗?因此我们必须要屏蔽掉404页面。
3。企业站的导航栏上面,往往会有“网上赚钱博客介绍”“联系九月”“关于我们”这些页面。这些页面,可以说是全站显示,网站的每个页面几乎都要分权重给这些页面,但是这些页面值得网站分权重给他们吗?因此我们也必须屏蔽掉这些“不重要内容”的页面,不让搜索引擎抓取。
4。从3.4点,我们可以得出一个结论:网站如果有太多无关的页面被收录,而你又不想用户直接从搜索引擎进入这些页面,那么网站就会把权重分给这些“毫无意义”的页面,这样就会降低整体网站的权重。
简而概之,就是网站被这些垃圾页面所拖累了。
5。robots.txt的基本写法。
在桌面上建立一个叫robots.txt文档
以下内容按顺序写:
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-content/
Disallow: /feed
Disallow: /comments/feed
Disallow: /trackback
Disallow: /guestbook
User-agent: #表示允许的搜索引擎。*代表允许所有,如果仅允许百度蜘蛛,就写baiduspider
Disallow: #是禁止收录的意思
Disallow: / #表示禁止所有收录。直接再Disallow:后面加一个斜杠。
Disallow: /网站后台目录/ #屏蔽目录的格式
Disallow: /404.html #屏蔽404页面
robots.txt里面,任何空格,换行都是被忽略的。robots.txt只看命令的顺序,空格、换行都是为了我们看的方便。
6。robots.txt该如何写,才优化很好?
看完了前面5点,相信你对如何优化很好应该有一个很好的理解了。
1)屏蔽掉对网站没用的垃圾页面,比如404
2)思考一下,你的哪些页面虽然必须出现,但是你觉得没必要让用户“从搜索引擎过来看”。比如福州SEO的“关于我们”。那么就不必被收录。
上述内容就是如何进行robots.txt 中的robots优化设置,你们学到知识或技能了吗?如果还想学到更多技能或者丰富自己的知识储备,欢迎关注创新互联行业资讯频道。
网站题目:如何进行robots.txt中的robots优化设置-创新互联
文章路径:http://scyanting.com/article/cscsph.html