该问题已被锁定!
1
关注
2531
浏览

为了避免重复收录写的robots.txt 大家看下我这规则对不对

AI智能回复搜索中,请稍后...

为什么被折叠? 0 个回复被折叠

暂无回答

关于作者

问题动态

发布时间
2014-01-09 11:28
更新时间
2014-01-09 11:28
关注人数
1 人关注

相关问题

大家帮我看看怎么我网站不收录
关于SEO的问题,这样很不利于搜索引擎收录。。。
手机版点击“更多”加载重复BUG
刚把风格改为了蓝色,但有问题,求助...
新站一周谷歌收录600,百度只收录了一个首页,是因为没伪静态花吗,请高手指教~
关于URL重复问题
感觉wc收录是个问题啊
官网收录正常了,修改过什么吗?
重复URL问题
关于收录的问题,我删了那段代码之后,收录直往上涨

推荐内容

请教用七牛后robots.txt的设置方法
Google Webmaster 总是提示我Robots.txt无法访问,大家遇到吗?
怎么用robots屏蔽分类列表和推荐、热门、待回复
终于明白百度为啥不收录了,看看这怎么办?
AWS哪些目录是可以禁止搜索引擎爬行的?
Wecenter的robots这样写 是否更好一些?
wecenter的robots规则
请问 在robots.txt文件中,一般是放行那几个目录?