百度对robots.txt的神速反应
和社会脱轨有段时间了。最近在做一个优化的时候发先了一个有趣的问题-robots.txt文件对百度的限制抓去效果很神速。 直接上数据吧,目标网站www.opine.cn,12月份改版,全新程序,老站的数据有一部分没有删除,放在了2个目录夹下。新改版的数据收录很快,当天收录就从200多上升到了300多的收录。因为当时我还没开始做这个站,直到12月末的时候,我上了robots文件,限制了旧数据目录。第三天,收录从300多下降到了200左右,在4号的时候,robots文件不小心被谁删了,第二天收录猛增了100多,都是老数据。赶紧把robots传上去,两天的时间,robots限制的文件又被百度藏起来了。一个多星期,反复的两次robots事件,收录也跌跌荡荡。数据从300到200在回到300,最后又变成现在的190.反映了一个问题,就是robots对百度的作用非常大,百度反应的速度也非常的快。
大家要学会用robots.txt,不但可以节约很多时间,而且对收录和禁止收录都是非常有效的。在robots.txt里面加一个sitemap地址,减去繁琐的sitemap提交,让蜘蛛自己来爬吧。 有点乱七八糟的感觉,大家多包含。 |
凌众科技专业提供服务器租用、服务器托管、企业邮局、虚拟主机等服务,公司网站:http://www.lingzhong.cn 为了给广大客户了解更多的技术信息,本技术文章收集来源于网络,凌众科技尊重文章作者的版权,如果有涉及你的版权有必要删除你的文章,请和我们联系。以上信息与文章正文是不可分割的一部分,如果您要转载本文章,请保留以上信息,谢谢! |