该问题已被锁定!
5
关注
4280
浏览

增加一个反爬虫的功能吧

AI智能回复搜索中,请稍后...

为什么被折叠? 0 个回复被折叠
wander 注册会员 用户来自于: 安徽省合肥市
2020-12-08 13:40

1.首先可以看看日志,抓取的爬虫是搜索引擎还是伪装为搜索引擎的爬虫。如果是搜索引擎且不想被对方抓取,可以通过robots.txt屏蔽,例如,屏蔽掉yandex、DotBot、Archiver等

#
# robots.txt for WeCenter
#
User-Agent: YandexBot
Disallow: /
User-Agent: DotBot
Disallow: /
User-Agent: trendictionbot
Disallow: /
User-Agent: ia_archiver
Disallow: /

2.如果是恶意抓取,可以分析IP地址,然后通过服务器端配置拒绝该IP的访问。


PS.反爬虫工作量、技术要求特别高,如果真有人可以针对,技术成本很高,看看大型站点在这方面的投入就知道了


小小123 初级会员 用户来自于: 北京市海淀区
2020-12-02 12:47

确实有需要,怎么防止内容被技术人员窃取的问题,官方考虑一下

cooldev 初级会员 用户来自于: 英国
2020-12-23 22:16

你可以简单通过iptables和fail2ban来控制用户的爬虫频率。
例如:如果一个ip地址在5秒钟内访问网站有20次, 你就可以通过iptables和fail2ban 禁止掉这个ip的访问。

关于作者

问题动态

发布时间
2020-12-02 11:08
更新时间
2020-12-23 22:16
关注人数
5 人关注

推荐内容

这个搜索问题 能不能改进一下,能不能更加智能点 (新倩女幽魂)
不知道话题能不能自定义SEO标题
私信功能问题
类似话题的合并
数据批量导入的时候上传xlsx文件失败, upload_file_exceeds_form_limit
问题沉底刷新建议(更新)
WC登陆验证码太难识别了...
代码能不能写的清爽点带上注释
发起文章的功能为什么不能关闭,我很好奇!?