该问题已被锁定!
1
关注
2442
浏览

为了避免重复收录写的robots.txt 大家看下我这规则对不对

AI智能回复搜索中,请稍后...

为什么被折叠? 0 个回复被折叠

暂无回答

关于作者

问题动态

发布时间
2014-01-09 11:28
更新时间
2014-01-09 11:28
关注人数
1 人关注

相关问题

伪静态帮助也太简洁了吧,为了扩展用户群,建议多为新手想一想
鼠标双击重复提交的问题
百度收录效果好差,现在搞了几个月总算开始收录了
再也不说anwsion百度不易收录了
为啥官方的收录由原先的2000多变成1580了?我是用site命令看的
擅长话题出现重复
会出现发重复的问题
为了可持续发展,新版本请提供增量升级包
能不能在下个版本增加后台广告位管理,我这两周来不知道为了广告修改过几次代码了
我的网站终于被百度收录啦

推荐内容

AWS哪些目录是可以禁止搜索引擎爬行的?
Wecenter的robots这样写 是否更好一些?
怎么用robots屏蔽分类列表和推荐、热门、待回复
请教用七牛后robots.txt的设置方法
wecenter的robots规则
Google Webmaster 总是提示我Robots.txt无法访问,大家遇到吗?
终于明白百度为啥不收录了,看看这怎么办?
请问 在robots.txt文件中,一般是放行那几个目录?