上一篇博客我们实现了一个最基本的爬虫,但提取页面信息时使用的是正则表达式,过程比较烦琐,而且万一有地方写错了,可能会导致匹配失败,所以使用正则表达式提取页面信息多少还是有些不方便。
对于网页的节点来说,可以定义 id、class 或其他属性,而且节点之间还有层次关系,在网页中可以通过 XPath 或 CSS 选择器来定位一个或多个节点。那么,在解析页面时,利用 XPath 或 CSS 选择器提取某个节点,然后调用相应方法获取该节点的正文内容或者属性,不就可以提取我们想要的任意信息了吗?
在 Python中,怎样实现上述操作呢?不用担心,相关的解析库非常多,其中比较强大的有 lxml、BeautifulSoup、pyquery、parsel等。本章就来介绍这几个解析库的用法。有了它们,我们就不用再为正则表达式发愁,解析效率也会大大提高。
xpath_6">xpath简介
XPath 的全称是 XML Path Language,即 XML路径语言,用来在 XML 文档中查找信息。它虽然最初是用来搜寻 XML 文档的,但同样适用于 HTML 文档的搜索。
XPath的选择功能十分强大,它提供了非常简洁明了的路径选择表达式。另外,它还提供了 100多个内建函数,用于字符串、数值、时间的匹配以及节点、序列的处理等。几乎所有我们想要定位的节点,都可以用 XPath 选择。
XPath于1999年11月16日成为 W3C标准,它被设计出来,供XSLT、XPointer 以及其他 XML解析软件使用。
所以在做爬虫时,我们完全可以使用 XPath 实现相应的信息抽取。本节我们就介绍一下 XPath 的基本用法。
xpath_18">xpath常用规则
下表列举了XPath 的几个常用规则。
这里列出了 XPath 的一个常用匹配规则,如下:
//title[@lang='eng']
它代表选择所有名称为 title,同时属性 lang 的值为 eng 的节点。
后面会通过 Python 的 lxml 库,利用 XPath 对 HTML 进行解析。
准备工作
使用Ixml库之前,首先要确保其已安装好。
可以使用 pip3 来安装:
pip3 install lxml
安装完成后,就可以进入接下来的学习了。
实例引入
下面通过实例感受一下使用 XPath 对网页进行解析的过程,相关代码如下:
from lxml import etreetext = '''
<div><ul><li class="item-0"><a href="link1.html">first item</a></li><li class="item-1"><a href="link2.html">second item</a></li><li class="item-inactive"><a href="link3.html">third item</a></li><li class="item-1"><a href="link4.html">fourth item</a></li><li class="item-0"><a href="link5.html">fifth item</a></ul>
</div>
'''html = etree.HTML(text)
result = etree.tostring(html)
print(result.decode('utf-8'))
这里首先导人 Ixml库的 etree 模块,然后声明了一段 HTML文本,接着调用 HTML类进行初始化,这样就成功构造了一个 XPath 解析对象。此处需要注意一点,HTML 文本中的最后一个 li 节点是没有闭合的,而 etree 模块可以自动修正 HTML 文本。
之后调用 tostring方法即可输出修正后的 HTML代码,但是结果是 bytes 类型。于是利用 decode方法将其转换成 str类型,结果如下:
<html><body><div><ul><li class="item-0"><a href="link1.html">first item</a></li><li class="item-1"><a href="">second item</a></li><li class="item-inactive"><a href="">third item</a></li><li class="item-1"><a href="">fourth item</a></li><li class="item-0"><a href="">fifth item</a></li></ul>
</div>
</body></html>
可以看到,经过处理之后的li节点标签得以补全,并且自动添加了 body、html 节点。另外,也可以不声明,直接读取文本文件进行解析,实例如下:
from lxml import etreehtml = etree.parse('./test.html', etree.HTMLParser())
result = etree.tostring(html)
print(result.decode('utf-8'))
其中 test.html 的内容就是上面例子中的 HTML 代码,内容如下:
<div><ul><li class="item-0"><a href="link1.html">first item</a></li><li class="item-1"><a href="link2.html">second item</a></li><li class="item-inactive"><a href="link3.html">third item</a></li><li class="item-1"><a href="link4.html">fourth item</a></li><li class="item-0"><a href="link5.html">fifth item</a></ul>
</div>
这次的输出结果略有不同,多了一个 DOCTYPE声明,不过对解析无任何影响,结果如下:
<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN" "http://www.w3.org/TR/REC-html40/loose.dtd">
<html><body><div> <ul> <li class="item-0"><a href="link1.html">first item</a></li> <li class="item-1"><a href="link2.html">second item</a></li> <li class="item-inactive"><a href="link3.html">third item</a></li> <li class="item-1"><a href="link4.html">fourth item</a></li> <li class="item-0"><a href="link5.html">fifth item</a> </li></ul>
</div></body></html>
注意:打印出来的 符号是html的换行符
所有节点
我们一般会用以 // 开头的 XPath 规则,来选取所有符合要求的节点。这里还是以第一个实例中的 HTML 文本为例,选取其中所有节点,实现代码如下:
from lxml import etreehtml = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//*')
print(result)
运行结果如下:
[<Element html at 0x1d5ac144fc0>, <Element body at 0x1d5ac14c100>, <Element div at 0x1d5ac14c140>, <Element ul at 0x1d5ac14c180>, <Element li at 0x1d5ac14c1c0>, <Element a at 0x1d5ac14c240>, <Element li at 0x1d5ac14c280>, <Element a at 0x1d5ac14c2c0>, <Element li at 0x1d5ac14c300>, <Element a at 0x1d5ac14c200>, <Element li at 0x1d5ac14c340>, <Element a at 0x1d5ac14c380>, <Element li at 0x1d5ac14c3c0>, <Element a at 0x1d5ac14c400>]
这里使用*代表匹配所有节点,也就是获取整个 HTML文本中的所有节点。从运行结果可以看到,返回形式是一个列表,其中每个元素是 Element 类型,类型后面跟着节点的名称,如 html、body、div、ul、li、a等,所有节点都包含在了列表中。
当然,此处匹配也可以指定节点名称。例如想获取所有li节点,实例如下:
from lxml import etreehtml = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//li')
print(result)
print(result[0])
这里选取所有 li节点,可以使用 //,然后直接加上节点名称,调用时使用 xpath 方法即可。
运行结果如下:
[<Element li at 0x1f6e6d34ec0>, <Element li at 0x1f6e6d34f00>, <Element li at 0x1f6e6d34f40>, <Element li at 0x1f6e6d34f80>, <Element li at 0x1f6e6d34fc0>]
<Element li at 0x1f6e6d34ec0>
可以看到,提取结果也是一个列表,其中每个元素都是Element 类型。要是想取出其中一个对象,可以直接用中括号加索引获取,如[0]。
子节点
通过/或 //即可查找元素的子节点或子孙节点。假如现在想选择 li节点的所有直接子节点 a。则可以这样实现:
from lxml import etreehtml = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//li/a')
print(result)
这里通过追加 /a的方式,选择了所有 li节点的所有直接子节点 a。其中 //li用于选中所有 li节点,/a用于选中 li 节点的所有直接子节点 a。
运行结果如下:
[<Element a at 0x29657d24e40>, <Element a at 0x29657d24e80>, <Element a at 0x29657d24ec0>, <Element a at 0x29657d24f00>, <Element a at 0x29657d24f40>]
上面的/用于选取节点的直接子节点,如果要获取节点的所有子孙节点,可以使用//。例如,要获取 ul节点下的所有子孙节点 a,可以这样实现:
from lxml import etreehtml = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//li//a')
print(result)
运行结果是相同的。
但是如果这里用 //ul/a,就无法获取任何结果了。因为/用于获取直接子节点,而 ul 节点下没有直接的a子节点,只有li节点,所以无法获取任何匹配结果,代码如下:
from lxml import etreehtml = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//ul/a')
print(result)
运行结果如下:
[]
因此这里要注意/和//的区别,前者用于获取直接子节点,后者用于获取子孙节点。
父节点
通过连续的/或 //可以查找子节点或子孙节点,那么假如知道了子节点,怎样査找父节点呢?
这可以用…实现。
例如,首先选中 href属性为 link4.html的a节点,然后获取其父节点,再获取父节点的 class 属性,相关代码如下:
from lxml import etreehtml = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//a[@href="link4.html"]/../@class')
print(result)
运行结果如下:
['item-1']
检查一下结果发现,这正是我们获取的目标 li节点的class 属性。
也可以通过 parent::获取父节点,代码如下:
from lxml import etreehtml = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//a[@href="link4.html"]/parent::*/@class')
print(result)
属性匹配
在选取节点的时候,还可以使用@符号实现属性过滤。例如,要选取 class属性为 item-0的li节点,可以这样实现:
from lxml import etreehtml = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//li[@class="item-0"]')
print(result)
这里通过加人[@class=“item-0”],限制了节点的 class属性为 item-0。HTML文本中符合这个条件的 li 节点有两个,所以结果应该返回两个元素。结果如下:
[<Element li at 0x1dea76bd080>, <Element li at 0x1dea76bd0c0>]
可见,匹配结果正是两个,至于是不是正确的那两个,后面再验证。
文本匹配
用 XPat 中的 text 方法可以获取节点中的文本,接下来尝试获取前面 1i节点中的文本,相关代码如下:
from lxml import etreehtml = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//li[@class="item-0"]/text()')
print(result)
运行结果如下:
['\r\n ']
奇怪的是,我们没有获取任何文本,只获取了回车和换行符,这是为什么呢?因为xpath中 text方法的前面是/,而/的含义是选取直接子节点,很明显li的直接子节点都是a节点,文本都是在a节点内部的,所以这里匹配到的结果就是被修正的li节点内部的换行符,因为自动修正的 li节点的尾标签换行了。
即选中的是这两个节点:
<li class="item-0"><a href="link1.html">first item</a></li>
<li class="item-0"><a href="link5.html">fifth item</a>
其中一个节点因为自动修正,li节点的尾标签在添加的时候换行了,所以提取文本得到的唯一结果就是 li 节点的尾标签和a节点的尾标签之间的换行符。
因此,如果想获取 li 节点内部的文本,就有两种方式,一种是先选取a节点再获取文本,另一种是使用 //。接下来,我们看下两种方式的区别。
先选取a节点,再获取文本的代码如下:
from lxml import etreehtml = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//li[@class="item-0"]/a/text()')
print(result)
运行结果如下:
['first item', 'fifth item']
可以看到,这里有两个返回值,内容都是 class 属性为 item-0的 li 节点的文本,这也印证了前面属性匹配的结果是正确的。
这种方式下,我们是逐层选取的,先选取li节点,然后利用/选取其直接子节点a,再选取节点a的文本,得到的两个结果恰好是符合我们预期的。
再来看一下使用 //能够获取什么样的结果,代码如下:
from lxml import etreehtml = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//li[@class="item-0"]//text()')
print(result)
运行结果如下:
['first item', 'fifth item', '\r\n ']
不出所料,这里的返回结果是三个。可想而知,这里选取的是所有子孙节点的文本,其中前两个是 li的子节点a内部的文本,另外一个是最后一个 1i 节点内部的文本,即回车换行符。
由此,要想获取子孙节点内部的所有文本,可以直接使用//加 text 方法的方式,这样能够保证获取最全面的文本信息,但是可能会夹杂一些换行符等特殊字符。如果想获取某些特定子孙节点下的所有文本,则可以先选取特定的子孙节点,再调用 text 方法获取其内部的文本,这样可以保证获取的结果是整洁的。
属性获取
我们已经可以用text方法获取节点内部文本,那么节点属性该怎样获取呢?其实依然可以用@符号。例如,通过如下代码获取所有li节点下所有a节点的href属性:
from lxml import etreehtml = etree.parse('./test.html', etree.HTMLParser())
result = html.xpath('//li/a/@href')
print(result)
这里通过 @href获取节点的href属性。注意,此处和属性匹配的方法不同,属性匹配是用中括号加属性名和值来限定某个属性,如[@href=“link1.html”],此处的 @href 是指获取节点的某个属性,二者需要做好区分。
运行结果如下:
['link1.html', 'link2.html', 'link3.html', 'link4.html', 'link5.html']
可以看到,我们成功获取了所有 li节点下a节点的 href属性,并以列表形式返回了它们。
属性多值匹配
有时候,某些节点的某个属性可能有多个值,例如:
from lxml import etreetext = '''
<li class="li li-first"><a href="link.html">first item</a></li>
'''html = etree.HTML(text)
result = html.xpath('//li[@class="li"]/a/text()')
print(result)
这里 HTML 文本中 li 节点的 class 属性就有两个值:li 和 li-first。此时如果还用之前的属性匹配获取节点,就无法进行了,运行结果如下:
[]
这种情况需要用到 contains 方法,于是代码可以改写如下:
from lxml import etreetext = '''
<li class="li li-first"><a href="link.html">first item</a></li>
'''html = etree.HTML(text)
result = html.xpath('//li[contains(@class,"li")]/a/text()')
print(result)
上面使用了 contains 方法,给其第一个参数传人属性名称,第二个参数传人属性值,只要传人的属性包含传人的属性值,就可以完成匹配了。
此时运行结果如下:
['first item']
contains方法经常在某个节点的某个属性有多个值时用到。
多属性匹配
我们还可能遇到一种情况,就是根据多个属性确定一个节点,这时需要同时匹配多个属性。运算符 and 用于连接多个属性,实例如下:
from lxml import etreetext = '''<li class="li li-first" name="item"><a href="link.html">first item</a> </li>'''
html = etree.HTML(text)
result = html.xpath('//li[contains(@class, "li") and @name="item" ]/a/text()')
print(result)
这里的 1i 节点又增加了一个属性 name。因此要确定 1i 节点,需要同时考察 class 和 name 属性一个条件是 class 属性里面包含 1i字符串,另一个条件是 name 属性为 item 字符串,这二者同时得到满足,才是 1i 节点。class 和 name 属性需要用 and 运算符相连,相连之后置于中括号内进行条件筛选。运行结果如下:
['first item']
这里的 and 其实是 XPath 中的运算符。除了它,还有很多其他运算符,如 or、mod 等,在此总结为下表:
按序选择
在选择节点时,某些属性可能同时匹配了多个节点,但我们只想要其中的某一个,如第二个或者最后一个,这时该怎么办呢?
可以使用往中括号中传人索引的方法获取特定次序的节点,实例如下:
from lxml import etree
text ='''
<div><ul><li class="item-0"><a href="link1.html">first item</a></li><li class="item-1"><a href="link2.html">second item</a></li><li class="item-inactive"><a href="link3.html">third item</a></li><li class="item-1"><a href="link4.html">fourth item</a></li><li class="item-0"><a href="link5.html">fifth item</a></ul>
</div>
'''
html = etree.HTML(text)
result = html.xpath('//li[1]/a/text()')
print(result)
result =html.xpath('//li[last()]/a/text()')
print(result)
result = html.xpath('//li[position()<3]/a/text()')
print(result)
result =html.xpath('//li[last()-2]/a/text()')
print(result)
上述代码中,第一次选择时选取了第一个 li 节点,往中括号中传人数字1即可实现。注意,这里和写代码不同,序号以1开头,而非 0。
第二次选择时,选取了最后一个 li节点,在中括号中调用 last 方法即可实现。
第三次选择时,选取了位置小于3的li节点,也就是位置序号为1和2的节点,得到的结果就前两个 li 节点。
第四次选择时,选取了倒数第三个 li节点,在中括号中调用last 方法再减去2即可实现。因为last 方法代表最后一个,在此基础上减2得到的就是倒数第三个。
运行结果如下:
['first item']
['fifth item']
['first item', 'second item']
['third item']
节点轴选择
XPath 提供了很多节点轴的选择方法,包括获取子元素、兄弟元素、父元素、祖先元素等,实例如下:
from lxml import etreetext = '''
<div><ul><li class="item-0"><a href="link1.html"><span>first item</span></a></li><li class="item-1"><a href="link2.html">second item</a></li><li class="item-inactive"><a href="link3.html">third item</a></li><li class="item-1"><a href="link4.html">fourth item</a></li><li class="item-0"><a href="link5.html">fifth item</a></ul>
</div>
'''
html = etree.HTML(text)
result = html.xpath('//li[1]/ancestor::*')
print(result)
result = html.xpath('//li[1]/ancestor::div')
print(result)
result = html.xpath('//li[1]/attribute::*')
print(result)
result = html.xpath('//li[1]/child::a[@href="link1.html"]')
print(result)
result = html.xpath('//li[1]/descendant::span')
print(result)
result = html.xpath('//li[1]/following::*[2]')
print(result)
result = html.xpath('//li[1]/following-sibling::*')
print(result)
运行结果如下:
[<Element html at 0x2b2c04c40c0>, <Element body at 0x2b2c0804f00>, <Element div at 0x2b2c0804f40>, <Element ul at 0x2b2c0804f80>]
[<Element div at 0x2b2c0804f40>]
['item-0']
[<Element a at 0x2b2c0804f00>]
[<Element span at 0x2b2c0804fc0>]
[<Element a at 0x2b2c080c0c0>]
[<Element li at 0x2b2c0804f80>, <Element li at 0x2b2c0804e40>, <Element li at 0x2b2c080c080>, <Element li at 0x2b2c080c040>]
上述代码中第一次选择时,调用了 ancestor 轴,可以获取所有祖先节点。其后需要跟两个冒号然后是节点的选择器,这里我们直接使用*,表示匹配所有节点,因此相应返回结果是第一个li 节点的所有祖先节点,包括 html、body、div 和 ul。
第二次选择时,又加了限定条件,这次是在冒号后面加了 div,于是得到的结果就只有 div 这个祖先节点了。
第三次选择时,调用了 attribute 轴,可以获取所有属性值,其后跟的选择器还是*,代表获取节点的所有属性,返回值就是li节点的所有属性值。
第四次选择时,调用了 child轴,可以获取所有直接子节点。这里我们又加了限定条件,选取 href属性为 link1.html 的a节点。
第五次选择时,调用了 descendant轴,可以获取所有子孙节点。这里我们又加了限定条件–获取 span 节点,所以返回结果只包含 span 节点,不包含a节点。
第六次选择时,调用了 following 轴,可以获取当前节点之后的所有节点。这里我们虽然使用的是*匹配,但又加了索引选择,所以只获取了第二个后续节点。
第七次选择时,调用了 following-sibling 轴,可以获取当前节点之后的所有同级节点。这里我们使用*匹配,所以获取了所有的后续同级节点。
总结
到现在为止,我们把可能用到的 XPath 选择器基本介绍完了。XPath 功能非常强大,内置函数非常多,熟练使用之后,可以大大提升提取 HTML信息的效率。