该问题已被锁定!
5
关注
2622
浏览

rebots.txt的设置,怎么设置可以减少带宽,还可以增加搜索引擎对网站的收录?

AI智能回复搜索中,请稍后...

为什么被折叠? 0 个回复被折叠
阿北 初级会员 用户来自于: 安徽省阜阳市
2013-08-07 00:04
robots 没有办法,它本身就是禁止收录的命令。 除非你是考虑网站定位问题,比如你并不希望通过百度图片获取流量,可以考虑屏蔽掉图片蜘蛛来节省带宽,依次类推其他类型的蜘蛛。 除此之外可以考虑用 nofollow 来引导蜘蛛抓取重要的内容。内容较多可以参考: http://ask.seowhy.com/question/1544
gamebus 初级会员 用户来自于: 北京市
2013-08-07 10:58
nofollow并不能阻止抓取,他的作用是不传递权重,蜘蛛依然会抓。 robots可以禁止效价比非常低的搜索蜘蛛抓取,还可以禁止不是搜索引擎的蜘蛛抓去,当然前提是这个蜘蛛遵守这个协议。比如这边禁止了某蜘蛛,此蜘蛛疯狂抓取,流量贡献却微乎其微,索性将其禁止。这样每个月至少节约了几个g的流量。 robots还可以引导蜘蛛,告诉他哪些可以抓,那些不能抓,这样也能节约一定的流量。 想增加索引量,robots可以做的是,告诉蜘蛛你网站的地图在哪里,让蜘蛛去抓取地图。 感觉质量高,数量多的内容才是提高索引量的根本。 有兴趣的话,可以继续探讨这个问题。

关于作者

itdazhu 注册会员

这家伙很懒,还没有设置简介

问题动态

发布时间
2013-08-06 23:46
更新时间
2013-08-07 10:58
关注人数
5 人关注

推荐内容

网站改版需要删除以前和主题不相关的文章吗
准备做一个算命问答
能给大致看一下网站的问题吗?
200元请人解决wecenter慢的问题
手机版调用用户头像失败?获取的是默认头像、ID输出不成功。求帮忙看看
网站起名搜搜问问可以吗?
wecenter是否不利于百度优化?
国内有没有英文版的邮件列表提供商?
如何有效提高网站访问量、流量和转化率?