公司介绍服务优势资质荣誉支付方式联系我们
外贸、外语、英文公司、企业、办公游戏、动漫、软件EDM、邮件、营销轻工、日化、化工酒店、餐饮、食品更多案例分类
域名注册主机空间外贸企业邮箱画册设计搜索优化微信网站
建站套餐网站策划建站流程网站维护样板选择
响应式网站商城网站通用网站
公司动态行业动态常见问题解决方案建站知识设计知识SEO优化
免费电话:400-666-5425 电话:020-28903657 邮箱:service@020el.com 地址:广州市番禺区市桥光明南路163号置业华逸大厦313室
Copyright © 2009-2016 广州壹策网络科技有限公司 All Rights Reserved 备案号:粤ICP备13012683号-8
robots.txt的规则误区及百度和Google的robots工具的使用
比如有很多人这样写:
User-agent: *
Allow: /
Disallow: /mulu/
不知道大家有没有看出来,这个规则其实是不起作用的,句Allow: / 指的是允许蜘蛛爬行所有内容,第二句Disallow: /mulu/指的是禁止/mulu/下面的所有内容。
表面上看这个规则想达到的目的是:允许蜘蛛爬行除了/mulu/之外的网站所有页面。
但是搜索引擎蜘蛛执行的规则是从上到下,这样会造成第二句命令失效。
正确的规则应该是:
User-agent: *
Disallow: /mulu/
Allow: /
也就是先执行禁止命令,再执行允许命令,这样就不会失效了。
另外对于百度蜘蛛来说,还有一个容易犯的错误,那就是Disallow命令和Allow命令之后要以斜杠/开头,所以有些人这样写:Disallow: *.html 这样对百度蜘蛛来说是错误的,应该写成:Disallow: /*.html 。
有时候我们写这些规则可能会有一些没有注意到的问题,现在可以通过百度站长工具(zhanzhang.baidu.com)和Google站长工具来测试。