跟着猿人学python,记录我的python学习之旅。
在我们写爬虫的时候经常会遇到这样那样的问题。常见的是网页解析,如何利用工具更好的去帮我们提高效率,是我最近学习的重点。
Python的lxml是一个相当强悍的解析html、XML的模块,最新版本支持的python版本从2.6到3.6,是写爬虫的必备利器。它基于C语言库libxml2 和 libxslt,进行了Python范儿(Pythonic)的绑定,成为一个具有丰富特性又容易使用的Python模块。虽然特性丰富,但是它在修改数节点时又缺少了些接口,比如本文讲到的获取 inner html 和 设置(修改)inner html功能。
在没有看到这篇文章之前很多人会觉得很复杂,其实不然。
解析网页的html一般使用lxml.html模块,只需要以下三步就可以完成:
(1) 导入模块:
import lxml.html
(2) 把html转换为html document 树,根节点就是<html>标签:
doc = lxml.html.fromstring(html)
(3) 使用xpath查找要提取的节点:
nodes = doc.xpath('//div[@class, 'the']/div[@id, 'xpath']')
以上三步分成简洁,实际使用中,可能要反复第三部,通过不同的xpath获得不同的节点进行数据提取。
可以说,lxml解析(只读模式)html的功能又强大又方便。但是,如果需要修改(写模式)某些节点的html就有点困难了,它在这方面提供的API很少,只有修改节点tag属性的API,比如修改节点的class,id,href等属性是可以的。
那么如何操作节点的实际html字符串呢?
1. 获取节点的inner html
那么,什么是inner html呢?首先,我们来看一段html代码示例:
<div class=”text”>这是div<a href=”/node”>节点</a>内容</div>
对于div 这个html标签节点,它的inner html就是:
这是div<a href=”/node”>节点</a>内容
即该标签包含的所有内容;而包含div标签在内的全部示例代码就是div的outer html。
明白了inner html 和 outer html的概念,我们就着手获取它们。
lxml.html.tostring(html_element) 接口的作用是把一个节点及其子节点形成的树转换成html,也就是该节点的outer html,由此我们来获得inner html,并实现为以下函数:
def get_inner_html(node): html = lxml.html.tostring(node, encoding="utf8").decode('utf8') p_begin = html.find('>') + 1 p_end = html.rfind('<') return html[p_begin: p_end]