该问题已被锁定!
5
关注
2634
浏览

rebots.txt的设置,怎么设置可以减少带宽,还可以增加搜索引擎对网站的收录?

AI智能回复搜索中,请稍后...

为什么被折叠? 0 个回复被折叠
阿北 初级会员 用户来自于: 安徽省阜阳市
2013-08-07 00:04
robots 没有办法,它本身就是禁止收录的命令。 除非你是考虑网站定位问题,比如你并不希望通过百度图片获取流量,可以考虑屏蔽掉图片蜘蛛来节省带宽,依次类推其他类型的蜘蛛。 除此之外可以考虑用 nofollow 来引导蜘蛛抓取重要的内容。内容较多可以参考: http://ask.seowhy.com/question/1544
gamebus 初级会员 用户来自于: 北京市
2013-08-07 10:58
nofollow并不能阻止抓取,他的作用是不传递权重,蜘蛛依然会抓。 robots可以禁止效价比非常低的搜索蜘蛛抓取,还可以禁止不是搜索引擎的蜘蛛抓去,当然前提是这个蜘蛛遵守这个协议。比如这边禁止了某蜘蛛,此蜘蛛疯狂抓取,流量贡献却微乎其微,索性将其禁止。这样每个月至少节约了几个g的流量。 robots还可以引导蜘蛛,告诉他哪些可以抓,那些不能抓,这样也能节约一定的流量。 想增加索引量,robots可以做的是,告诉蜘蛛你网站的地图在哪里,让蜘蛛去抓取地图。 感觉质量高,数量多的内容才是提高索引量的根本。 有兴趣的话,可以继续探讨这个问题。

关于作者

itdazhu 注册会员

这家伙很懒,还没有设置简介

问题动态

发布时间
2013-08-06 23:46
更新时间
2013-08-07 10:58
关注人数
5 人关注

推荐内容

国内有没有英文版的邮件列表提供商?
做网站推广借用工具来做可以吗?
anwsion程序访问速度需要优化
如何把访客变成客户使用着陆页?做网站的朋友必须看看
找人优化网站
找人优化网站
刚才进后台把网站地址和目录地址给改了,不过填写错了,在哪个文件里面改?
零基础新手怎么学习SEO?
小工具网站请大家给点建议
为何网址后面斜杠加问号的所有htm后缀的都可以打开呢?比如www.sefei.org/?hksfhdfjnskf.htm什么原因呢?