vlambda博客
学习文章列表

【学习教程系列】最通俗的 Python3 网络爬虫入门


很多朋友学习Python都是先从爬虫开始,其原因不外两方面:


其一Python对爬虫支持度较好,类库众多,其二语法简单,入门容易,所以两者形影相随,不离不弃。


【学习教程系列】最通俗的 Python3 网络爬虫入门


使用python语言做爬虫,首先需要学习一下python的基础知识,然后补充学习HTML、CSS、JS、Ajax等相关的知识。




01 如何去学习?





可以按照三步走来理解:获取数据——解析数据——存储数据;


【学习教程系列】最通俗的 Python3 网络爬虫入门


爬虫的第一个步骤就是对所要爬取的网页进行请求,以获取其相应返回的结果,然后再使用一些方法,对响应内容解析,提取想要的内容资源,最后,将提取出来的资源保存起来。


第一步:确定URL;


在爬取的时候内容往往很多,需要注意看一下关键字变化时链接的变化,网页的动静态、日期等。


第二步:发送请求;


建议从建议从requests+Xpath 开始,requests 负责连接网站,返回网页,Xpath 用于解析网页,便于抽取数据。


第三步:解析网页;


请求资源成功后,需要定位返回的整个网页的源代码,对数据进行清洗。


第四步:保存数据;整理好数据后保存


虫流程个人经验总结大致的3点:


【学习教程系列】最通俗的 Python3 网络爬虫入门
(1)请求数据
【学习教程系列】最通俗的 Python3 网络爬虫入门


请求的数据会有几种可能:


1)很简单的html页面,直接requests就可以请求成功


2)js渲染的页面 (这种页面超多)requests请求一堆js数据 ,模块 selenium (代码基于浏览器运行)


3)需要登录才能获取用的cookie 请求登录


4)json数据,这个就稍微有点难度



【学习教程系列】最通俗的 Python3 网络爬虫入门
(2)数据处理
【学习教程系列】最通俗的 Python3 网络爬虫入门



数据处理会有几种可能:


1)请求的数据是简单的,html结构页面–直接BS4解析就好了


2)请求的数据是json,导入json模块进行解析


3)请求的数据是简单的js渲染的html页面


其实就是js拼写的html,只要把其他无用的数据匹配掉,用正则找到剩下想要的html文本就好了,然后BS4解析。



【学习教程系列】最通俗的 Python3 网络爬虫入门
3)写数据
【学习教程系列】最通俗的 Python3 网络爬虫入门



open方法进行文件打开里面的参数进行文件格式设置,读写文件、编码格式操作。


 
   
   
 
with open(“XXX.xxx”,“a”,encoding=“utf-8”) as f :  f.write(’’‘写入的数据’’’)



文件格式我用过的就是txt、csv 、xml 大部分文本格式都支持的;


  • a–是创建文件 每次写都是重新创建

  • w–是追加

  • a–是读数据


encoding="utf-8"这句话 不加encoding= 在windows系统下会报编码错误;


如果数据量太大就写入到数据库;


了解完爬虫工作的基本流程,大概也可以知道爬虫需要掌握哪些技能基础了。


抓取数据是不是得掌握数据类型?网页解析得懂点网页知识吧?保存数据,文件读写能力、数据库得了解吧?




02 Python基础部分





如果你只是想简单写一些爬虫,那基础语法就够了,想学得更溜一点或者是应用到工作当中的话,最好系统的去学一遍Python,完整的知识体系很重要。


先过一遍最基本的Python知识:


  • 常量与变量

  • 常用的数据结构:list  tuple  set  dict的基本操作

  • 条件控制语句、判断、循环语句

  • 字符串

  • 正则表达式

  • 熟悉各类函数


进阶部分:


  • 面对对象编程:类的实现、属性定义、实例、多重继承、slf的理解与使用

  • 网络编程

  • Linux基本操作

  • Python文件处理:读写解析

  • Python多进程与线程高并发编程

  • 爬虫框架scrapy

  • 分布式爬虫大规模抓取


【学习教程系列】最通俗的 Python3 网络爬虫入门


Python模块实现爬虫:


  • urllib3、requests、lxml、bs4 模块大体作用讲解

  • 使用requests模块 get 方式获取静态页面数据

  • 使用requests模块 post 方式获取静态页面数据

  • 使用requests模块获取 ajax 动态页面数据

  • 使用requests模块模拟登录网站

  • 使用Tesseract进行验证码识别


这里,列了一些python中与爬虫相关的库和框架:


  • urllib

  • Requests

  • Beautiful Soup

  • Xpath语法与lxml库

  • PhantomJS

  • Selenium

  • PyQuery

  • Scrapy

......


【学习教程系列】最通俗的 Python3 网络爬虫入门


好处就是不用自己造轮子,大量的库拿过来就可以用,网上的资料也比较多。


入门书籍的话推荐这本:《Python编程从入门到实践》


非常经典的一门入门书籍,我学Python那会儿也用的这本,包括基础知识和项目两部分,书中内容讲解比较详细精简,每个小结都附带有”动手试一试”环节,不会很枯燥。


【学习教程系列】最通俗的 Python3 网络爬虫入门




03 网页基本知识





① HTTP:超文本传输协议

② HTTPS:HTTP+SSL(安全套接字层)

③ 理解网站的POST GET的一些相关概念,JS的一些基本内容,方便理解动态网页


进行爬虫学习,要懂得网页,一窍不通肯定不行,HTML中有网页大量的信息,爬虫主要抓取和解析网页的HTML。


HTML(Hyper Text Markup Language)为超文本标记语言,简单来讲,就是一种用于构建网页的编程语言。


一般情况下,网页头部分会定义HTML文档的编码以及网页的标题,而网页体部分则决定着一个网页中的正文内容。


也不用全部都学,但HTTP & HTTPS、网络协议、网络结构(HTML语法、html标签、数据、css样式、js等等什么的)这些还是得知道。


TCP/IP协议、HTTP协议


【学习教程系列】最通俗的 Python3 网络爬虫入门


这些知识能够让你了解在网络请求和网络传输上的基本原理,了解就行,能够帮助今后写爬虫的时候理解爬虫的逻辑。


【学习教程系列】最通俗的 Python3 网络爬虫入门





04 应对反爬





如果网站没有设置反爬措施的话,当然这是 不可能的!反爬和反反爬永远是同时存在的。


大型的网站一般都会设有反爬,掌握一些常用的反爬虫技巧爬取一般的网站问题不大。


常用的反爬技巧:


  • 控制ip访问频率

  • 字体反加密

  • 禁止cookie

  • 验证码OCR处理

  • 用户代理池技术

……


应对反爬处理手段:


  • 控制IP访问次数频率,增加时间间隔

  • Cookie池保存与处理

  • 用户代理池技术

  • 字体反加密

  • 验证码OCR处理

  • 抓包

……


个人觉得反爬无外乎:同一ip访问次数、同一用户,即cookie的访问频率/次数


如果说你的IP和用户数是无穷的,那获取数据的方式压根就不用愁,有各种方法可以获取,但实际上不太可能。


IP可以用IP池来解决,但注册的话一个手机号只能注册一个账号,且绑定了手机号,网站对注册这一块还是比较严的。


如果是碰到了最严重的反爬,用固定的访问频率依然不能抓取到你想要的有效数据,那就放弃吧,没要折腾了。


强制登陆+限制同一用户的访问频率/次数,是最严重的反爬。


我一般下面这三个用得比较多:


  • 不断添加新的cookie

  • 降级访问频率

  • 搭建ip池


因为我一般需要爬取的数据都比较简单,所以这几种方法基本可以应付反爬了。


顺便提一句:爬虫攻击网站,这个新手尤其注意!


主要是无限制的向服务器发送请求,造成网站服务器崩溃,就算你没有其他的目的,单纯搞着玩玩,但这跟黑客攻击没有任何区别。


所以还是要注意一下,友好爬虫,别把自己坑进去了!


另外很多人担心的一点:


爬虫本身是不违法的,也没有必要谈爬色变!


但是爬虫作为一门技术,用在什么地方?该怎么用?自己心里还是要有点底。切忌被一时的赚大钱和盲目跟风的好奇心,让自己爬进了狱子里。


robots协议相关说明:


【学习教程系列】最通俗的 Python3 网络爬虫入门




05 爬取路线选择




  • 静态网页:


静态网页以及少量表单交互的网站可以使用如下的技术路线:


 
   
   
 
requests + BeautifulSoup + select css选择器requests + BeautifulSoup + find_all 进行信息提取requests + lxml/etree + xpath 表达式requests + lxml/html/fromstring + xpath 表达式



  • 动态网页:


简单动态网页,需要有点击或者提交的可以参考selenium + phantomJS组合使用。


【学习教程系列】最通俗的 Python3 网络爬虫入门




06 爬虫进阶



【学习教程系列】最通俗的 Python3 网络爬虫入门
爬虫框架Scrapy
【学习教程系列】最通俗的 Python3 网络爬虫入门



学到这里一般的爬虫已经不是问题了,但碰到更复杂的情况下,scrapy框架的作用就出来了,能非常方便的解决问题。


Scrapy框架构造


【学习教程系列】最通俗的 Python3 网络爬虫入门


Scrapy可以让爬虫实现爬虫工程化、模块化,除了它的功能非常强大之外,还有强大的selector 能够方便地解析 response,便捷地构建request。


当你学会scrapy框架后,就可以自己去搭建一些爬虫框架了。



【学习教程系列】最通俗的 Python3 网络爬虫入门
分布式爬虫
【学习教程系列】最通俗的 Python3 网络爬虫入门



分布式爬虫通俗的讲就是多台机器多个 spider 对多个 url 的同时处理问题,分布式的方式可以极大提高程序的抓取效率。


【学习教程系列】最通俗的 Python3 网络爬虫入门


听来虽然很懵,其实也是利用多线程的原理让多个爬虫同时工作,当你掌握分布式爬虫,实现大规模并发采集后,自动化数据获取会更便利。


爬虫学习的书籍可以去看看这本:《python网络爬虫开发实战》


【学习教程系列】最通俗的 Python3 网络爬虫入门


这本书涵盖面较广,爬虫入门到一些比较高级的比如验证码识别、分布式爬虫、专用框架都写得很详细。


所以学完它满足一些基本需求不成问题了,比如批量下载图片、手机app抓包等等。


当你每个步骤都能做到很优秀的时候,你应该考虑如何使你的爬虫达到效率最高,也就是所谓的爬虫策略问题。


爬虫策略学习不是一朝一夕的事情,建议多看看一些比较优秀的爬虫的设计方案。



【学习教程系列】最通俗的 Python3 网络爬虫入门

END



最后:


【学习教程系列】最通俗的 Python3 网络爬虫入门


欢迎关注「Python新手快速入门


每天5分钟,学习一个Python小Tip!助力你成为更优秀的Python学习者~