该问题已被锁定!
1
关注
1993
浏览

为了避免重复收录写的robots.txt 大家看下我这规则对不对

AI智能回复搜索中,请稍后...

为什么被折叠? 0 个回复被折叠

暂无回答

关于作者

问题动态

发布时间
2014-01-09 11:28
更新时间
2014-01-09 11:28
关注人数
1 人关注

相关问题

这貌似是一个beta5的bug:safari打开文章,原有的话题会重复列出2-3次,删除重复部分又一个都没有了,加上一个又会复列出。
google收录300多了,为啥百度还是收录2条
百度是不是每一个月才收录一次啊?
关于搜索引擎收录AW很苦恼
为什么我的网站只能收录几个功能页面,不收录文章页呢?
如果问题重复怎办?
注册后重复收到系统邮件
对于重复问题的整合能力建议收集
百度收录的是 ”帖子页“
SEO方面1.1有做过什么修整吗?!发现一个页面重复问题。

推荐内容

终于明白百度为啥不收录了,看看这怎么办?
Wecenter的robots这样写 是否更好一些?
wecenter的robots规则
请教用七牛后robots.txt的设置方法
怎么用robots屏蔽分类列表和推荐、热门、待回复
请问 在robots.txt文件中,一般是放行那几个目录?
AWS哪些目录是可以禁止搜索引擎爬行的?
Google Webmaster 总是提示我Robots.txt无法访问,大家遇到吗?