python爬虫 如何解决http error 503问题
从表面上看,Python爬虫程序运行中出现503错误是服务器的问题,其实真正的原因在程序,由于Python脚本运行过程中读取的速度太快,明显是自动读取而不是人工查询读取,这时服务器为了节省资源就会给Python脚本反馈回503错误。其实只要把爬取的速度放慢一点就好了。比如读取一条记录或几条记录后适当添加上timesleep(10),这样就基本上不会出现503错误了。我本人在使用中一般是在每一次读取后都运行timesleep(1)或timesleep(3),具体的数值根据不同的网站确定。
Python爬虫,全称Python网络爬虫,是一种按照一定的规则,自动地抓取万维网信息的程序或脚本,主要用于抓取证券交易数据、天气数据、网站用户数据和数据等,Python为支持网络爬虫正常功能实现,内置了大量的库,主要有几种类型。下面本篇文章就来给大家介绍。
一、Python爬虫网络库
Python爬虫网络库主要包括:urllib、requests、grab、pycurl、urllib3、httplib2、RoboBrowser、MechanicalSoup、mechanize、socket、Unirest for Python、hyper、PySocks、treq以及aiohttp等。
二、Python网络爬虫框架
Python网络爬虫框架主要包括:grab、scrapy、pyspider、cola、portia、restkit以及demiurge等。
三、HTML/XML解析器
●lxml:C语言编写高效HTML/ XML处理库。支持XPath。
●cssselect:解析DOM树和CSS选择器。
●pyquery:解析DOM树和jQuery选择器。
●BeautifulSoup:低效HTML/ XML处理库,纯Python实现。
●html5lib:根据WHATWG规范生成HTML/ XML文档的DOM。该规范被用在现在所有的浏览器上。
●feedparser:解析RSS/ATOM feeds。
●MarkupSafe:为XML/HTML/XHTML提供了安全转义的字符串。
●xmltodict:一个可以让你在处理XML时感觉像在处理JSON一样的Python模块。
●xhtml2pdf:将HTML/CSS转换为PDF。
●untangle:轻松实现将XML文件转换为Python对象。
四、文本处理
用于解析和操作简单文本的库。
●difflib:(Python标准库)帮助进行差异化比较。
●Levenshtein:快速计算Levenshtein距离和字符串相似度。
●fuzzywuzzy:模糊字符串匹配。
●esmre:正则表达式加速器。
●ftfy:自动整理Unicode文本,减少碎片化。
五、特定格式文件处理
解析和处理特定文本格式的库。
●tablib:一个把数据导出为XLS、CSV、JSON、YAML等格式的模块。
●textract:从各种文件中提取文本,比如 Word、PowerPoint、PDF等。
●messytables:解析混乱的表格数据的工具。
●rows:一个常用数据接口,支持的格式很多(目前支持CSV,HTML,XLS,TXT:将来还会提供更多!)。
六、自然语言处理
●NLTK:编写Python程序来处理人类语言数据的最好平台;
●Pattern:Python的网络挖掘模块;
●TextBlob:为深入自然语言处理任务提供了一致的API。是基于NLTK以及Pattern的巨人之肩上发展的;
●jieba:中文分词工具;
●SnowNLP:中文文本处理库;
●loso:另一个中文分词库;
●genius:基于条件随机域的中文分词;
●langidpy:独立的语言识别系统;
●Korean:一个韩文形态库;
●pymorphy2:俄语形态分析器(词性标注+词形变化引擎);
●PyPLN:用Python编写的分布式自然语言处理通道。这个项目的目标是创建一种简单的方法使用NLTK通过网络接口处理大语言库。
七、浏览器自动化与仿真
●selenium:自动化真正的浏览器(Chrome浏览器,火狐浏览器,Opera浏览器,IE浏览器);
●Ghostpy:对PyQt的webkit的封装(需要PyQT);
●Spynner:对PyQt的webkit的封装(需要PyQT);
●Splinter:通用API浏览器模拟器(selenium web驱动,Django客户端,Zope)。
八、多重处理
●threading:Python标准库的线程运行。对于I/O密集型任务很有效。对于CPU绑定的任务没用,因为python GIL;
●multiprocessing:标准的Python库运行多进程;
●celery:基于分布式消息传递的异步任务队列/作业队列;
●concurrent-futures:concurrent-futures 模块为调用异步执行提供了一个高层次的接口。
九、异步网络编程库
●asyncio:(在Python 34 +版本以上的 Python标准库)异步I/O,时间循环,协同程序和任务;
●Twisted:基于事件驱动的网络引擎框架;
●Tornado:一个网络框架和异步网络库;
●pulsar:Python事件驱动的并发框架;
●diesel:Python的基于绿色事件的I/O框架;
●gevent:一个使用greenlet 的基于协程的Python网络库;
●eventlet:有WSGI支持的异步框架;
●Tomorrow:异步代码的奇妙的修饰语法。
十、队列
●celery:基于分布式消息传递的异步任务队列/作业队列;
●huey:小型多线程任务队列;
●RQ:基于Redis的轻量级任务队列管理器;
●simpleq:一个简单的,可无限扩展,基于Amazon SQS的队列;
●python-gearman:Gearman的Python API。
十一、云计算
picloud:云端执行Python代码;
dominoupcom:云端执行R,Python和matlab代码。
十二、电子邮件
●flanker:电子邮件地址和Mime解析库;
●Talon:Mailgun库用于提取消息的报价和签名。
十三、网址和网络地址操作
●furl:一个小的Python库,使得操纵URL简单化;
●purl:一个简单的不可改变的URL以及一个干净的用于调试和操作的API;
●urllibparse:用于打破统一资源定位器(URL)的字符串在组件之间的隔断,为了结合组件到一个URL字符串,并将“相对URL”转化为一个绝对URL,称之为“基本URL”;
●tldextract:从URL的注册域和子域中准确分离TLD,使用公共后缀列表;
●etaddr:用于显示和操纵网络地址的Python库。
十四、网页内容提取
●ewspaper:用Python进行新闻提取、文章提取和内容策展;
●html2text:将HTML转为Markdown格式文本;
●python-goose:HTML内容、文章提取器;
●lassie:人性化的网页内容检索工具;
●micawber:一个从网址中提取丰富内容的小库;
●sumy:一个自动汇总文本文件和HTML网页的模块;
●Haul:一个可扩展的图像爬虫;
●python-readability:arc90 readability工具的快速Python接口;
●scrapely:从HTML网页中提取结构化数据的库;
●youtube-dl:一个从YouTube下载视频的小命令行程序;
●you-get:Python3的YouTube、优酷/ Niconico视频下载器;
●WikiTeam:下载和保存wikis的工具。
十五、WebSocket
●Crossbar:开源的应用消息传递路由器;
●AutobahnPython:提供了WebSocket协议和WAMP协议的Python实现并且开源;
●WebSocket-for-Python:Python 2和3以及PyPy的WebSocket客户端和服务器库。
十六、DNS解析
●dnsyo:在全球超过1500个的DNS服务器上检查你的DNS;
●pycares:c-ares的接口。
十七、计算机视觉
●OpenCV:开源计算机视觉库;
●SimpleCV:用于照相机、图像处理、特征提取、格式转换的简介,可读性强的接口;
●mahotas:快速计算机图像处理算法,完全基于 numpy 的数组作为它的数据类型。
十八、代理服务器
●shadowsocks:一个快速隧道代理,可帮你穿透防火墙;
●tproxy:tproxy是一个简单的TCP路由代理,基于Gevent,用Python进行配置。
十九、其他Python工具列表
●awesome-python
●pycrumbs
●python-github-projects
●python_reference
●pythonidae
1 检查cookies
当出现无法保持登陆状态或者直接无法登陆站点的情况时,可以先去对cookies进行检查,这种情况有可能是cookies出现问题所导致的。
2 检查JavaScript
当站点页面缺少信息或出现空白时,可以去检查网站创建页面的JavaScript。
3 更换IP地址
如果出现403forbidden或者页面无法打开的问题,那么就很有可能是IP已经被站点服务器所封禁,遇到这种情况就需要更换自己的IP地址,目前来说最为方便的就是使用代理IP,例如IPIDEA,可以随时更换新的IP地址来确保爬虫的工作效率。
0条评论