该问题已被锁定!
1
关注
2251
浏览

为了避免重复收录写的robots.txt 大家看下我这规则对不对

AI智能回复搜索中,请稍后...

为什么被折叠? 0 个回复被折叠

暂无回答

关于作者

问题动态

发布时间
2014-01-09 11:28
更新时间
2014-01-09 11:28
关注人数
1 人关注

相关问题

百度收录,每个页面都是都是两个地址
为什么成都旗袍网不被百度收录
话题下面只有一个问题的时候重复显示问题两次的bug
官方发现和动态页面的通知感觉是重复
如果周五升级程序,会不会对网站收录有影响?
请问已收录的导航链接如何让他访问后重定向
发现as百度收录不是很好
问题和文章能不能进行转换?话题讨论统计数量重复统计?
建议:图片加上alt可能更容易被收录哦
搜索引擎收录时的时间是错的,网站哪里出了问题?

推荐内容

wecenter的robots规则
终于明白百度为啥不收录了,看看这怎么办?
请教用七牛后robots.txt的设置方法
Google Webmaster 总是提示我Robots.txt无法访问,大家遇到吗?
怎么用robots屏蔽分类列表和推荐、热门、待回复
请问 在robots.txt文件中,一般是放行那几个目录?
AWS哪些目录是可以禁止搜索引擎爬行的?
Wecenter的robots这样写 是否更好一些?