如何使用robots文件避免蜘蛛黑洞(陷阱)

作者: zhushican 分类: seo教程 发布时间: 2015年4月18日 次浏览 0条评论

如何使用robots文件避免蜘蛛黑洞陷阱

  SEOer在网站优化中要避免“蜘蛛陷阱”,“蜘蛛陷阱”是阻止蜘蛛程序爬行网站的障碍物,一旦进入这些陷阱将对网站的索引和收录造成影响。除了常见的登录要求动态URL、强制用Cookies、框架结构、各种跳转Flash外还有一种也应该引起SEOer注意,那就是蜘蛛黑洞。
 
  对于搜索引擎来说,蜘蛛黑洞特指网站通过极低的成本制造出大量参数过多,及内容雷同但具体参数不同的动态URL ,就像一个无限循环的“黑洞”将spider困住,搜索引擎爬虫浪费了大量资源抓取的却是无效网页

  比如很多网站都有筛选功能,通过筛选功能产生的网页经常会被搜索引擎大量抓取,而这其中很大一部分检索价值不高,如“500-1000之间价格的租房”,首先网站(包括现实中)上基本没有相关资源,其次站内用户和搜索引擎用户都没有这种检索习惯。这种网页被搜索引擎大量抓取,只能是占用网站宝贵的抓取配额。那么该如何避免这种情况呢?      
 
  我们以成都某团购网站为例,看看该网站是如何利用robots巧妙避免这种蜘蛛黑洞的:
 
  对于普通的筛选结果页,该网站选择使用静态链接,如:http://cd.xxx.com/category/zizhucan/weigongcun
      
  同样是条件筛选结果页,当用户选择不同排序条件后,会生成带有不同参数的动态链接,而且即使是同一种排序条件(如:都是按销量降序排列),生成的参数也都是不同的。如:http://cd.xxx.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhekhttp://cd.xxx.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c
 
  对于该团购网来说,只让搜索引擎抓取筛选结果页就可以了,而各种带参数的结果排序页面则通过robots规则拒绝提供给搜索引擎。
 
  robots.txt的文件用法中有这样一条规则:Disallow: /*?* ,即禁止搜索引擎访问网站中所有的动态页面。该网站恰是通过这种方式,对Baiduspider优先展示高质量页面、屏蔽了低质量页面,为spider提供了更友好的网站结构,避免了黑洞的形成。

 

本文出自 老域名查询 ,转载时请注明出处及相应链接。

本文永久链接: http://www.sc8323.com/2015/1254.html

回顶部