今天捕捉到一个网页爬虫,IP地址为:110.42.66.212,UserAgent在短短2小时内换了17个,抓取了62个页面,因触发反爬规则被封。
序号 | UserAgent |
1 | Googlebot/2.1+(+http://www.googlebot.com/bot.html) |
2 | (compatible;+Baiduspider/2.0;++http://www.baidu.com/search/spider.html) |
3 | AppleWebKit/534.46+(KHTML,like+Gecko)+Version/5.1+Mobile+Safari/10600.6.3 |
4 | Sogou+Push+Spider/3.0(+http://www.sogou.com/docs/help/webmasters.htm#07) |
5 | Mozilla/5.0+(compatible;+Googlebot/2.1;++http://www.google.com/bot.html) |
6 | Mozilla/4.0+(compatible;+MSIE+9.0;+Windows+NT+6.1) |
7 | Python-urllib/3.10 |
8 | iaskspider/2.0(+http://iask.com/help/help_index.html) |
9 | Sogou+web+spider/3.0(+http://www.sogou.com/docs/help/webmasters.htm#07) |
10 | Mozilla/5.0+(compatible;+Yahoo!+Slurp;+http://help.yahoo.com/help/us/ysearch/slurp??) |
11 | Googlebot/2.1+(+http://www.google.com/bot.html) |
12 | Mozilla/5.0+(compatible;+Yahoo!+Slurp+China;+http://misc.yahoo.com.cn/help.html) |
13 | Mozilla/5.0+(compatible;+Baiduspider/2.0;++http://www.baidu.com/search/spider.html?? |
14 | Mozilla/5.0+(Linux;u;Android+4.2.2;zh-cn;) |
15 | Mozilla/5.0+(compatible;+YodaoBot/1.0;+http://www.yodao.com/help/webmaster/spider/;+) |
16 | msnbot/1.0+(+http://search.msn.com/msnbot.htm) |
17 | Mozilla/5.0+(compatible;+iaskspider/1.0;+MSIE+6.0) |
我认为频繁更换UA并不能解决爬虫被封的问题。更换IP也不能保证绕过反爬虫机制,因为涉及到抓取频率,如果频率过低,费时长且没有效率,迟早要被反爬虫机制识别;频率过高(比如一秒中抓取两三个页面),则很快就会触发反爬虫规则。
文章来源于尚贤达猎头公司谭工