您的位置:新闻资讯 >文章内容
使用代理服务器爬取网页还会被封IP吗?
来源:本站 作者:admin 时间:2019-07-27 15:36:00

最近写了个爬虫,大量访问后,会被屏蔽IP,于是用了代理服务器,可结果还是会被屏蔽。所以想问一下,使用代理后还是会被屏蔽吗,有什么解决办法吗?

 

使用高匿名代理IP就不会出现被屏蔽的问题了,之所以会被屏蔽,估计使用的代理IP为透明代理。


 使用代理服务器爬取网页还会被封IP吗?


在刚开始接触python爬虫的过程中,总会遇到数据采集时,遇到爬虫被封的问题。我想大家也遇到过类似的问题,我们今天探讨下从http代理ip的角度解决这个问题。

 

一般爬虫被封的排查方法有以下几种:

 

一、首先,检查 JavaScript 。如果你从网络服务器收到的页面是空白的,缺少信息,或其遇到他不符合你预期的情况(或者不是你在浏览器上看到的内容),有可能是因为网站创建页面的 JavaScript 执行有问题。

 

二、检查正常浏览器提交的参数。如果你准备向网站提交表单或发出 POST 请求,记得检查一下页面的内容,看看你想提交的每个字段是不是都已经填好,而且格式也正确。用 Chrome 浏览器的网络面板(快捷键 F12 打开开发者控制台,然后点击“Network”即可看到)查看发送到网站的 POST 命令,确认你的每个参数都是正确的。

 

三、是否有合法的 Cookie?如果你已经登录网站却不能保持登录状态,或者网站上出现了其他的“登录状态”异常,请检查你的 cookie。确认在加载每个页面时 cookie 都被正确调用,而且你的 cookie 在每次发起请求时都发送到了网站上。

 

四、IP 被封禁?如果你在客户端遇到了 HTTP 错误,尤其是 403 禁止访问错误,这可能说明网站已经把你的 IP 当作机器人了,不再接受你的任何请求。你要么等待你的 IP 地址从网站黑名单里移除,要么就换个 IP 地址。如果你确定自己并没有被封杀,那么再检查下面的内容。

 

五、确认你的爬虫在网站上的速度不是特别快。快速采集是一种恶习,会对网管的服务器造成沉重的负担,还会让你陷入违法境地,也是 IP 被网站列入黑名单的首要原因。给你的爬虫增加延迟,让它们在夜深人静的时候运行。切记:匆匆忙忙写程序或收集数据都是拙劣项目管理的表现;应该提前做好计划,避免临阵慌乱。

 

六、还有一件必须做的事情:修改你的请求头!有些网站会封杀任何声称自己是爬虫的访问者。如果你不确定请求头的值怎样才算合适,就用你自己浏览器的请求头吧。

相关文章内容简介
在线咨询
大客户经理
大客户经理
13318873961

大客户经理微信

微信公众号

微信公众号

回到顶部