该问题已被锁定!
1
关注
1920
浏览

为了避免重复收录写的robots.txt 大家看下我这规则对不对

AI智能回复搜索中,请稍后...

为什么被折叠? 0 个回复被折叠

暂无回答

关于作者

问题动态

发布时间
2014-01-09 11:28
更新时间
2014-01-09 11:28
关注人数
1 人关注

相关问题

在网站反应慢的时候,狂点“确认发起”还是重复发布了两个一样的问题啊。2.0 Final
怎么百度还不收录啊
2.5手机版标签重复
现在每新增加用户在用户列表里都会重复出现两次,如图。谁能帮忙看看解答吗?谢谢!
为什么成都旗袍网不被百度收录
收个wecenter程序做的站权重大于1的 收录1000+的
大家发现没有 wecenter的收录很差
出现这个问题:description内容重复一次
微信登陆获取基本信息这块,真是看晕了,重复了多好几次
用户重复注册,版本2.0RC3

推荐内容

Google Webmaster 总是提示我Robots.txt无法访问,大家遇到吗?
请教用七牛后robots.txt的设置方法
wecenter的robots规则
AWS哪些目录是可以禁止搜索引擎爬行的?
终于明白百度为啥不收录了,看看这怎么办?
请问 在robots.txt文件中,一般是放行那几个目录?
怎么用robots屏蔽分类列表和推荐、热门、待回复
Wecenter的robots这样写 是否更好一些?