摘要:上一篇文章网络爬虫实战与正则表达式抓取猫眼电影排行下一篇文章网络爬虫实战解析库的使用上一节我们实现了一个最基本的爬虫,但提取页面信息时我们使用的是正则表达式,用过之后我们会发现构造一个正则表达式还是比较的繁琐的,而且万一有一点地
上一篇文章:Python3网络爬虫实战---27、Requests与正则表达式抓取猫眼电影排行
下一篇文章:Python3网络爬虫实战---29、解析库的使用:BeautifulSoup
上一节我们实现了一个最基本的爬虫,但提取页面信息时我们使用的是正则表达式,用过之后我们会发现构造一个正则表达式还是比较的繁琐的,而且万一有一点地方写错了就可能会导致匹配失败,所以使用正则来提取页面信息多多少少还是有些不方便的。
对于网页的节点来说,它可以定义 id、class 或其他的属性,而且节点之间还具有层次关系,在网页中可以通过 XPath 或 CSS 选择器来定位一个或多个节点。那么在页面解析时,我们利用 XPath 或 CSS 选择器来提取到某个节点,然后再调用相应的方法去获取它的正文内容或者属性不就可以提取我们想要的任意信息了吗?
在 Python 中,我们怎样来实现这个操作呢?不用担心,这种解析库已经非常多了,其中比较强大的库有 LXML、BeautifulSoup、PyQuery 等等,本章我们就来介绍一下这三个解析库的使用,有了它们,我们不用再为正则发愁,而且解析效率也会大大提高,实为爬虫必备利器。
XPath的使用XPath,全称 XML Path Language,即 XML 路径语言,它是一门在XML文档中查找信息的语言。XPath 最初设计是用来搜寻XML文档的,但是它同样适用于 HTML 文档的搜索。
所以在做爬虫时,我们完全可以使用 XPath 来做相应的信息抽取,本节我们来介绍一下 XPath 的基本用法。
1. XPath概览XPath 的选择功能十分强大,它提供了非常简洁明了的路径选择表达式,另外它还提供了超过 100 个内建函数用于字符串、数值、时间的匹配以及节点、序列的处理等等,几乎所有我们想要定位的节点都可以用XPath来选择。
XPath 于 1999 年 11 月 16 日 成为 W3C 标准,它被设计为供 XSLT、XPointer 以及其他 XML 解析软件使用,更多的文档可以访问其官方网站:https://www.w3.org/TR/xpath/。
2. XPath常用规则我们现用表格列举一下几个常用规则:
表达式 | 描述 |
---|---|
nodename | 选取此节点的所有子节点 |
/ | 从当前节点选取直接子节点 |
// | 从当前节点选取子孙节点 |
. | 选取当前节点 |
.. | 选取当前节点的父节点 |
@ | 选取属性 |
在这里列出了XPath的常用匹配规则,例如 / 代表选取直接子节点,// 代表选择所有子孙节点,. 代表选取当前节点,.. 代表选取当前节点的父节点,@ 则是加了属性的限定,选取匹配属性的特定节点。
例如:
//title[@lang=’eng’]
这就是一个 XPath 规则,它就代表选择所有名称为 title,同时属性 lang 的值为 eng 的节点。
在后文我们会介绍 XPath 的详细用法,通过 Python 的 LXML 库利用 XPath 进行 HTML 的解析。
3. 准备工作在使用之前我们首先要确保安装好了 LXML 库,如没有安装可以参考第一章的安装过程。
4. 实例引入我们现用一个实例来感受一下使用 XPath 来对网页进行解析的过程,代码如下:
from lxml import etree text = """ """ html = etree.HTML(text) result = etree.tostring(html) print(result.decode("utf-8"))
在这里我们首先导入了 LXML 库的 etree 模块,然后声明了一段 HTML 文本,调用 HTML 类进行初始化,这样我们就成功构造了一个 XPath 解析对象,在这里注意到 HTML 文本中的最后一个 li 节点是没有闭合的,但是 etree 模块可以对 HTML 文本进行自动修正。
在这里我们调用 tostring() 方法即可输出修正后的 HTML 代码,但是结果是 bytes 类型,在这里我们利用 decode() 方法转成 str 类型,结果如下:
我们可以看到经过处理之后 li 节点标签被补全,并且还自动添加了 body、html 节点。
另外我们也可以直接读取文本文件进行解析,示例如下:
from lxml import etree html = etree.parse("./test.html", etree.HTMLParser()) result = etree.tostring(html) print(result.decode("utf-8"))
其中 test.html 的内容就是上面例子中的 HTML 代码,内容如下:
这次的输出结果略有不同,多了一个 DOCTYPE 的声明,不过对解析无任何影响,结果如下:
5. 所有节点
我们一般会用 // 开头的 XPath 规则来选取所有符合要求的节点,以上文的 HTML 文本为例,如果我们要选取所有节点,可以这样实现:
from lxml import etree html = etree.parse("./test.html", etree.HTMLParser()) result = html.xpath("//*") print(result)
运行结果:
[, , , , , , , , , , , , , ]
我们在这里使用 * 代表匹配所有节点,也就是整个 HTML 文本中的所有节点都会被获取,可以看到返回形式是一个列表,每个元素是 Element 类型,其后跟了节点的名称,如 html、body、div、ul、li、a 等等,所有的节点都包含在列表中了。
当然此处匹配也可以指定节点名称,如果我们想获取所有 li 节点,示例如下:
from lxml import etree html = etree.parse("./test.html", etree.HTMLParser()) result = html.xpath("//li") print(result) print(result[0])
在这里我们要选取所有 li 节点可以使用 //,然后直接加上节点的名称即可,调用时直接调用 xpath() 方法即可提取。
运行结果:
[, , , , ]
在这里我们可以看到提取结果是一个列表形式,其每一个元素都是一个 Element 对象,如果要取出其中一个对象可以直接用中括号加索引即可取出,如 [0]。
6. 子节点我们通过 / 或 // 即可查找元素的子节点或子孙节点,加入我们现在想选择 li 节点所有直接 a 子节点,可以这样来实现:
from lxml import etree html = etree.parse("./test.html", etree.HTMLParser()) result = html.xpath("//li/a") print(result)
在这里我们通过追加一个 /a 即选择了所有 li 节点的所有直接 a 子节点,因为 //li 是选中所有li节点, /a 是选中li节点的所有直接子节点 a,二者组合在一起即获取了所有li节点的所有直接 a 子节点。
运行结果:
[, , , , ]
但是此处的 / 是选取直接子节点,如果我们要获取所有子孙节点就该使用 // 了,例如我们要获取 ul 节点下的所有子孙 a 节点,可以这样来实现:
from lxml import etree html = etree.parse("./test.html", etree.HTMLParser()) result = html.xpath("//ul//a") print(result)
运行结果是相同的。
但是这里如果我们用 //ul/a 就无法获取任何结果了,因为 / 是获取直接子节点,而在 ul 节点下没有直接的 a 子节点,只有 li 节点,所以无法获取任何匹配结果,代码如下:
from lxml import etree html = etree.parse("./test.html", etree.HTMLParser()) result = html.xpath("//ul/a") print(result)
运行结果:
[]
因此在这里我们要注意 / 和 // 的区别,/ 是获取直接子节点,// 是获取子孙节点。
7. 父节点我们知道通过连续的 / 或 // 可以查找子节点或子孙节点,那假如我们知道了子节点怎样来查找父节点呢?在这里我们可以用 .. 来获取父节点。
比如我们现在首先选中 href 是 link4.html 的 a 节点,然后再获取其父节点,然后再获取其 class 属性,代码如下:
from lxml import etree html = etree.parse("./test.html", etree.HTMLParser()) result = html.xpath("//a[@href="link4.html"]/../@class") print(result)
运行结果:
["item-1"]
检查一下结果,正是我们获取的目标 li 节点的 class,获取父节点成功。
同时我们也可以通过 parent:: 来获取父节点,代码如下:
from lxml import etree html = etree.parse("./test.html", etree.HTMLParser()) result = html.xpath("//a[@href="link4.html"]/parent::*/@class") print(result)8. 属性匹配
在选取的时候我们还可以用 @ 符号进行属性过滤,比如在这里如果我们要选取 class 为 item-1 的 li 节点,可以这样实现:
from lxml import etree html = etree.parse("./test.html", etree.HTMLParser()) result = html.xpath("//li[@class="item-0"]") print(result)
在这里我们通过加入 [@class="item-0"] 就限制了节点的 class 属性为 item-0,而 HTML 文本中符合条件的 li 节点有两个,所以返回结果应该返回两个匹配到的元素,结果如下:
[, ]
可见匹配结果结果正是两个,至于是不是那正确的两个,我们在后面验证一下。
9. 文本获取我们用 XPath 中的 text() 方法可以获取节点中的文本,我们接下来尝试获取一下上文 li 节点中的文本,代码如下:
from lxml import etree html = etree.parse("./test.html", etree.HTMLParser()) result = html.xpath("//li[@class="item-0"]/text()") print(result)
运行结果如下:
[" "]
很奇怪的是我们并没有获取到任何文本,而是只获取到了一个换行符,这是为什么呢?因为 XPath 中 text() 前面是 /,而此 / 的含义是选取直接子节点,而此处很明显 li 的直接子节点都是 a 节点,文本都是在 a 节点内部的,所以这里匹配到的结果就是被修正的 li 节点内部的换行符,因为自动修正的li节点的尾标签换行了。
即选中的是这两个节点:
其中一个节点因为自动修正,li 节点的尾标签添加的时候换行了,所以提取文本得到的唯一结果就是 li 节点的尾标签和 a 节点的尾标签之间的换行符。
因此,如果我们想获取 li 节点内部的文本就有两种方式,一种是选取到 a 节点再获取文本,另一种就是使用 //,我们来看下二者的区别是什么。
首先我们选取到 a 节点再获取文本,代码如下:
from lxml import etree html = etree.parse("./test.html", etree.HTMLParser()) result = html.xpath("//li[@class="item-0"]/a/text()") print(result)
运行结果:
["first item", "fifth item"]
可以看到这里返回值是两个,内容都是属性为 item-0 的 li 节点的文本,这也印证了我们上文中属性匹配的结果是正确的。
在这里我们是逐层选取的,先选取了 li 节点,又利用 / 选取了其直接子节点 a,然后再选取其文本,得到的结果恰好是符合我们预期的两个结果。
我们再来看下用另一种方式 // 选取的结果,代码如下:
from lxml import etree html = etree.parse("./test.html", etree.HTMLParser()) result = html.xpath("//li[@class="item-0"]//text()") print(result)
运行结果:
["first item", "fifth item", " "]
不出所料,这里返回结果是三个,可想而知这里是选取所有子孙节点的文本,其中前两个就是 li 的子节点 a 节点内部的文本,另外一个就是最后一个 li 节点内部的文本,即换行符。
所以说,如果我们要想获取子孙节点内部的所有文本,可以直接用 // 加 text() 的方式获取,这样可以保证获取到最全面的文本信息,但是可能会夹杂一些换行符等特殊字符。如果我们想获取某些特定子孙节点下的所有文本,可以先选取到特定的子孙节点,然后再调用 text() 方法获取其内部文本,这样可以保证获取的结果是整洁的。
10. 属性获取我们知道了用 text() 可以获取节点内部文本,那么节点属性该怎样获取呢?其实还是用 @ 符号就可以,例如我们想获取所有 li 节点下所有 a 节点的 href 属性,代码如下:
from lxml import etree html = etree.parse("./test.html", etree.HTMLParser()) result = html.xpath("//li/a/@href") print(result)
在这里我们通过 @href 即可获取节点的 href 属性,注意此处和属性匹配的方法不同,属性匹配是中括号加属性名和值来限定某个属性,如 [@href="link1.html"],而此处的 @href 指的是获取节点的某个属性,二者需要做好区分。
运行结果:
["link1.html", "link2.html", "link3.html", "link4.html", "link5.html"]
可以看到我们成功获取了所有 li 节点下的 a 节点的 href 属性,以列表形式返回。
11. 属性多值匹配有时候某些节点的某个属性可能有多个值,例如下面例子:
from lxml import etree text = """
在这里 HTML 文本中的 li 节点的 class 属性有两个值 li 和 li-first,但是此时如果我们还想用之前的属性匹配获取就无法匹配了,代码运行结果:
[]
这时如果属性有多个值就需要用 contains() 函数了,代码可以改写如下:
from lxml import etree text = """
这样我们通过 contains() 方法,第一个参数传入属性名称,第二个参数传入属性值,这样只要此属性包含所传入的属性值就可以完成匹配了。
运行结果:
["first item"]
此种选择方式在某个节点的某个属性有多个值的时候经常会用到,如某个节点的 class 属性通常有多个。
12. 多属性匹配另外我们可能还遇到一种情况,我们可能需要根据多个属性才能确定一个节点,这是就需要同时匹配多个属性才可以,那么这里可以使用运算符 and 来连接,示例如下:
from lxml import etree text = """
在这里 HTML 文本的 li 节点又增加了一个属性 name,这时候我们需要同时根据 class 和 name 属性来选择,就可以 and 运算符连接两个条件,两个条件都被中括号包围,运行结果如下:
["first item"]
这里的 and 其实是 XPath 中的运算符,另外还有很多运算符,如 or、mod 等等,在此总结如下:
运算符 | 描述 | 实例 | 返回值 |
---|---|---|---|
or | 或 | price=9.80 or price=9.70 | 如果 price 是 9.80,则返回 true。如果 price 是 9.50,则返回 false。 |
and | 与 | price>9.00 and price<9.90 | 如果 price 是 9.80,则返回 true。如果 price 是 8.50,则返回 false。 |
mod | 计算除法的余数 | 5 mod 2 | 1 |
计算两个节点集 | //book //cd | 返回所有拥有 book 和 cd 元素的节点集 | |
+ | 加法 | 6 + 4 | 10 |
- | 减法 | 6 - 4 | 2 |
* | 乘法 | 6 * 4 | 24 |
div | 除法 | 8 div 4 | 2 |
= | 等于 | price=9.80 | 如果 price 是 9.80,则返回 true。如果 price 是 9.90,则返回 false。 |
!= | 不等于 | price!=9.80 | 如果 price 是 9.90,则返回 true。如果 price 是 9.80,则返回 false。 |
< | 小于 | price<9.80 | 如果 price 是 9.00,则返回 true。如果 price 是 9.90,则返回 false。 |
<= | 小于或等于 | price<=9.80 | 如果 price 是 9.00,则返回 true。如果 price 是 9.90,则返回 false。 |
> | 大于 | price>9.80 | 如果 price 是 9.90,则返回 true。如果 price 是 9.80,则返回 false。 |
>= | 大于或等于 | price>=9.80 | 如果 price 是 9.90,则返回 true。如果 price 是 9.70,则返回 false。 |
此表参考来源:http://www.w3school.com.cn/xp...。
13. 按序选择有时候我们在选择的时候可能某些属性同时匹配了多个节点,但是我们只想要其中的某个节点,如第二个节点,或者最后一个节点,这时该怎么办呢?
这时可以利用中括号传入索引的方法获取特定次序的节点,示例如下:
from lxml import etree text = """ """ html = etree.HTML(text) result = html.xpath("//li[1]/a/text()") print(result) result = html.xpath("//li[last()]/a/text()") print(result) result = html.xpath("//li[position()<3]/a/text()") print(result) result = html.xpath("//li[last()-2]/a/text()") print(result)
第一次选择我们选取了第一个 li 节点,中括号中传入数字1即可,注意这里和代码中不同,序号是以 1 开头的,不是 0 开头的。
第二次选择我们选取了最后一个 li 节点,中括号中传入 last() 即可,返回的便是最后一个 li 节点。
第三次选择我们选取了位置小于 3 的 li 节点,也就是位置序号为 1 和 2 的节点,得到的结果就是前 2 个 li 节点。
第四次选择我们选取了倒数第三个 li 节点,中括号中传入 last()-2即可,因为 last() 是最后一个,所以 last()-2 就是倒数第三个。
运行结果如下:
["first item"] ["fifth item"] ["first item", "second item"] ["third item"]
在这里我们使用了 last()、position() 等函数,XPath 中提供了 100 多个函数,包括存取、数值、字符串、逻辑、节点、序列等处理功能,具体所有的函数作用可以参考:http://www.w3school.com.cn/xp...。
13. 节点轴选择XPath 提供了很多节点轴选择方法,英文叫做 XPath Axes,包括获取子元素、兄弟元素、父元素、祖先元素等等,在一定情况下使用它可以方便地完成节点的选择,我们用一个实例来感受一下:
from lxml import etree text = """ """ html = etree.HTML(text) result = html.xpath("//li[1]/ancestor::*") print(result) result = html.xpath("//li[1]/ancestor::div") print(result) result = html.xpath("//li[1]/attribute::*") print(result) result = html.xpath("//li[1]/child::a[@href="link1.html"]") print(result) result = html.xpath("//li[1]/descendant::span") print(result) result = html.xpath("//li[1]/following::*[2]") print(result) result = html.xpath("//li[1]/following-sibling::*") print(result)
运行结果:
[, , , ] [ ] ["item-0"] [ ] [ ] [ ] [ , , , ]
第一次选择我们调用了 ancestor 轴,可以获取所有祖先节点,其后需要跟两个冒号,然后是节点的选择器,这里我们直接使用了 *,表示匹配所有节点,因此返回结果是第一个 li 节点的所有祖先节点,包括 html,body,div,ul。
第二次选择我们又加了限定条件,这次在冒号后面加了 div,这样得到的结果就只有 div 这个祖先节点了。
第三次选择我们调用了 attribute 轴,可以获取所有属性值,其后跟的选择器还是 *,这代表获取节点的所有属性,返回值就是 li 节点的所有属性值。
第四次选择我们调用了 child 轴,可以获取所有直接子节点,在这里我们又加了限定条件选取 href 属性为 link1.html 的 a 节点。
第五次选择我们调用了 descendant 轴,可以获取所有子孙节点,这里我们又加了限定条件获取 span 节点,所以返回的就是只包含 span 节点而没有 a 节点。
第六次选择我们调用了 following 轴,可以获取当前节点之后的所有节点,这里我们虽然使用的是 * 匹配,但又加了索引选择,所以只获取了第二个后续节点。
第七次选择我们调用了 following-sibling 轴,可以获取当前节点之后的所有同级节点,这里我们使用的是 * 匹配,所以获取了所有后续同级节点。
以上是XPath轴的简单用法,更多的轴的使用可以参考:http://www.w3school.com.cn/xp...。
14. 结语到现在为止我们基本上把可能用到的 XPath 选择器介绍完了, XPath 功能非常强大,内置函数非常多,熟练使用之后可以大大提升 HTML 信息的提取效率。
如想查询更多 XPath 的用法可以查看:http://www.w3school.com.cn/xp...。
如想查询更多 Python LXML 库的用法可以查看:http://lxml.de/。
上一篇文章:Python3网络爬虫实战---27、Requests与正则表达式抓取猫眼电影排行
下一篇文章:Python3网络爬虫实战---29、解析库的使用:BeautifulSoup
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/44086.html
摘要:运行结果如果运行结果一致则证明安装成功。上一篇文章网络爬虫实战请求库安装下一篇文章网络爬虫实战数据库的安装 上一篇文章:Python3网络爬虫实战---2、请求库安装:GeckoDriver、PhantomJS、Aiohttp下一篇文章:Python3网络爬虫实战---数据库的安装:MySQL、MongoDB、Redis 抓取下网页代码之后,下一步就是从网页中提取信息,提取信息的方式有...
摘要:所以我们如果想获取电影,只需要分开请求次,而次的参数设置为,,,,即可,这样我们获取不同的页面结果之后再用正则表达式提取出相关信息就可以得到的所有电影信息了。上一篇文章网络爬虫实战正则表达式下一篇文章网络爬虫实战解析库的使用 上一篇文章:Python3网络爬虫实战---26、正则表达式下一篇文章:Python3网络爬虫实战---28、解析库的使用:XPath 本节我们利用 Reque...
摘要:解析器在解析的时候实际上是依赖于解析器的,它除了支持标准库中的解析器,还支持一些第三方的解析器比如,下面我们对支持的解析器及它们的一些优缺点做一个简单的对比。 上一篇文章:Python3网络爬虫实战---28、解析库的使用:XPath下一篇文章:Python3网络爬虫实战---30、解析库的使用:PyQuery 前面我们介绍了正则表达式的相关用法,但是一旦正则写的有问题,可能得到的就...
摘要:上一篇文章网络爬虫实战爬虫框架的安装下一篇文章网络爬虫实战部署相关库的安装的安装是一个中支持渲染的工具,本节来介绍一下它的安装方式。另外一个是的库的安装,安装之后即可在中使用服务。 上一篇文章:Python3网络爬虫实战---10、爬虫框架的安装:PySpider、Scrapy下一篇文章:Python3网络爬虫实战---12、部署相关库的安装:Docker、Scrapyd Scrap...
摘要:在前面我们讲到了和的概念,我们向网站的服务器发送一个,返回的的便是网页源代码。渲染页面有时候我们在用或抓取网页时,得到的源代码实际和浏览器中看到的是不一样的。所以使用基本请求库得到的结果源代码可能跟浏览器中的页面源代码不太一样。 上一篇文章:Python3网络爬虫实战---16、Web网页基础下一篇文章:Python3网络爬虫实战---18、Session和Cookies 爬虫,即网...
阅读 3644·2021-09-07 09:59
阅读 700·2019-08-29 15:12
阅读 788·2019-08-29 11:14
阅读 1285·2019-08-26 13:27
阅读 2631·2019-08-26 10:38
阅读 3105·2019-08-23 18:07
阅读 1254·2019-08-23 14:40
阅读 1882·2019-08-23 12:38