XPath解析html及实例-使⽤xpath的爬⾍
什么是XPath?
XPath (XML Path Language) 是⼀门在 XML ⽂档中查信息的语⾔,可⽤来在 XML ⽂档中对元素和属性进⾏遍历。
W3School官⽅⽂档:
XPath 开发⼯具
1. 开源的XPath表达式编辑⼯具:XMLQuire(XML格式⽂件可⽤)
2. Chrome插件 XPath Helper
3. Firefox插件 XPath Checker
选取节点
XPath 使⽤路径表达式来选取 XML ⽂档中的节点或者节点集。这些路径表达式和我们在常规的电脑⽂件系统中看到的表达式⾮常相似。下⾯列出了最常⽤的路径表达式:
表达式描述
nodename选取此节点的所有⼦节点。
/从根节点选取。
//从匹配选择的当前节点选择⽂档中的节点,⽽不考虑它们的位置。
.选取当前节点。
..选取当前节点的⽗节点。
@选取属性。
在下⾯的表格中,我们已列出了⼀些路径表达式以及表达式的结果:
路径表达式结果bookstore选取 bookstore 元素的所有⼦节点。
/bookstore选取根元素 bookstore。注释:假如路径起始于正斜杠( / ),则此路径始终代表到某元素的绝对路径!
bookstore/book选取属于 bookstore 的⼦元素的所有 book 元素。
//book选取所有 book ⼦元素,⽽不管它们在⽂档中的位置。
bookstore//book选择属于 bookstore 元素的后代的所有 book 元素,⽽不管它们位于 bookstore 之下的什么位置。
//@lang选取名为 lang 的所有属性。
谓语(Predicates)
谓语⽤来查某个特定的节点或者包含某个指定的值的节点,被嵌在⽅括号中。
在下⾯的表格中,我们列出了带有谓语的⼀些路径表达式,以及表达式的结果:
路径表达式结果
/bookstore/book[1]选取属于 bookstore ⼦元素的第⼀个 book 元素。
/bookstore/book[last()]选取属于 bookstore ⼦元素的最后⼀个 book 元素。
/bookstore/book[last()-1]选取属于 bookstore ⼦元素的倒数第⼆个 book 元素。
/bookstore/book[position()<3]选取最前⾯的两个属于 bookstore 元素的⼦元素的 book 元素。
//title[@lang]选取所有拥有名为 lang 的属性的 title 元素。
//title[@lang=’eng’]选取所有 title 元素,且这些元素拥有值为 eng 的 lang 属性。
/bookstore/book[price>35.00]选取 bookstore 元素的所有 book 元素,且其中的 price 元素的值须⼤于 35.00。
/bookstore/book[price>35.00]/title选取 bookstore 元素中的 book 元素的所有 title 元素,且其中的 price 元素的值须⼤于 35.00。
选取未知节点
XPath 通配符可⽤来选取未知的 XML 元素。
通配符描述
*匹配任何元素节点。
@*匹配任何属性节点。
node()匹配任何类型的节点。
在下⾯的表格中,我们列出了⼀些路径表达式,以及这些表达式的结果:
路径表达式结果
/bookstore/*选取 bookstore 元素的所有⼦元素。
//*选取⽂档中的所有元素。
//title[@*]选取所有带有属性的 title 元素。
选取若⼲路径
通过在路径表达式中使⽤“|”运算符,您可以选取若⼲个路径。
实例
在下⾯的表格中,我们列出了⼀些路径表达式,以及这些表达式的结果:
路径表达式结果
//book/title | //book/price选取 book 元素的所有 title 和 price 元素。
/
/title | //price选取⽂档中的所有 title 和 price 元素。
/bookstore/book/title | //price选取属于 bookstore 元素的 book 元素的所有 title 元素,以及⽂档中所有的 price 元素。XPath的运算符
下⾯列出了可⽤在 XPath 表达式中的运算符:
这些就是XPath的语法内容,在运⽤到Python抓取时要先转换为xml。
lxml库
lxml 是⼀个HTML/XML的解析器,主要的功能是如何解析和提取 HTML/XML 数据。
lxml和正则⼀样,也是⽤ C 实现的,是⼀款⾼性能的 Python HTML/XML 解析器,我们可以利⽤之前学习的XPath语法,来快速的定位特定元素以及节点信息。
lxml python 官⽅⽂档:
需要安装C语⾔库,可使⽤ pip 安装:pip install lxml(或通过wheel⽅式安装)
初步使⽤
我们利⽤它来解析 HTML 代码,⽰例1----------使⽤xpath的爬⾍:
1from urllib import request
2import urllib.parse
3from lxml import etree
4
5#根据url发送请求,获取服务器响应⽂件
6def loadPage(url):
7# header = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.87 Safari/537.36"}
8
9    a=request.Request(url)    # 奇怪,xpath⽆法解析出内容,结果为空。把headers去掉就好了,不知道为什么。
10    response=request.urlopen(a).read().decode('utf-8')
11# print(response)
12
13# 解析HTML⽂档为HTML DOM模型
14    content=etree.HTML(response)
15# 返回所有匹配成功的列表集合
16    link_list=content.xpath("//div[@class='t_con cleafix']/div[2]/div/div[1]/a/@href")
17# print(link_list)
18
19for link in link_list:
20print('正在获取url链接....')
21        fulllink = "tieba.baidu"+link    # 组合为每个帖⼦的链接
22        loadImage(fulllink)
23
24
25# 取出每个帖⼦⾥的每个图⽚连接
26def loadImage(link):
27    header = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.87 Safari/537.36"}
28    b=request.Request(link,headers=header)
29    response=request.urlopen(b).read().decode('utf-8')
30
31# 取出帖⼦⾥每层层主发送的图⽚连接集合
32    content1=etree.HTML(response)
33    link_list=content1.xpath("//img[@class='BDE_Image']/@src")
34# print(link_list)
35
36for link in link_list:
37print('正在获取图⽚链接....')
38        wirteImage(link)    # 取出每个图⽚的连接
39
40
41#将图⽚写⼊到本地
42def wirteImage(link):
43    header = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.87 Safari/537.36"}
44    c = request.Request(link, headers=header)
45    image = request.urlopen(c).read()    # 图⽚原始数据
46# print(image)
47    filname=link[-10:]    # 取出连接后10位做为⽂件名
48print('正在保存图⽚....')
49    with open(r'E:\python_practice_ku\pachong\1\\'+filname,'wb') as f:
50        f.write(image)
51
52
53#贴吧爬⾍调度器,负责组合处理每个页⾯的url
54def tiebaSpider(url,kw, beginPage, endPage):
55    data = {'kw': kw}
56    data = urllib.parse.urlencode(data)
57
58for page in range(beginPage,endPage+1):
59        fullurl = url + data+"&ie=utf-8" + "&pn=" +str(page)
60        loadPage(fullurl)
61
62
63if__name__ == '__main__':
64    kw = input("请输⼊需要爬取的贴吧名:")
65    beginPage = int(input("请输⼊起始页:"))
66    endPage = int(input("请输⼊结束页:"))
67
68    url = 'tieba.baidu/f?'
69    tiebaSpider(url,kw,beginPage,endPage)
⽰例2
1from urllib import request
2from lxml import etree
3import json
4
5 url='www.waduanzi/'
6 header={"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.8
7 Safari/537.36"} 7
8 a=request.Request(url,headers=header)
9 response=request.urlopen(a).read().decode('utf-8')
10
11# 响应返回的是字符串,解析为HTML DOM模式 text = etree.HTML(response)
12 text=etree.HTML(response)
13# 返回所有段⼦的结点位置,contains()模糊查询⽅法,第⼀个参数是要匹配的标签,第⼆个参数是标签名部分内容
14 node="//div[contains(@class,'panel panel20')]"
15 node_list=text.xpath(node)
16# print(node_list)
17
18for node in node_list:
19# xpath返回的列表,这个列表就这⼀个参数,⽤索引⽅式取出来,⽤户名
20    img = node.xpath("./div[1]/img/@src")[0]
21    title = node.xpath("./div[2]/h2/a/@title")[0]
22# 取出标签下的内容,段⼦内容
23# content = node.xpath("./div[2]/div")[0].text    //遇到有 ;和<br>后,⽂本内容没有取全
24    content = node.xpath("normalize-space(./div[2]/div)")    #normalize-space()遇到有 ;和<br>后,⽂本内容正常取
25    zan = node.xpath("./div[3]/ul/li[1]/a")[0].text
26    buzan = node.xpath("./div[3]/ul/li[2]/a")[0].text
27
28    items={
29"img": img,
30"title":title,
31"content":place("\xa0",""),
32"zan":zan,
33"buzan":buzan,
34    }
35
36# print(items)
37    with open('waduanzi.json','a') as f:
38        f.write(json.dumps(items,ensure_ascii=False)+",\n")
39
40    with open('waduanzi.json','r') as f1:
ad())
XPath实例测试
1. 获取所有的<li>标签
# xpath_li.py
from lxml import etree
html = etree.parse('hello.html')
print type(html)  # 显⽰etree.parse() 返回类型
result = html.xpath('//li')
print result  # 打印<li>标签的元素集合
print len(result)
print type(result)
print type(result[0])
输出结果:
<type '_ElementTree'>
[<Element li at 0x1014e0e18>, <Element li at 0x1014e0ef0>, <Element li at 0x1014e0f38>, <Element li at 0x1014e0f80>, <Element li at 0x1014e0fc8>] 5
<type 'list'>
<type '_Element'>
2. 继续获取<li>标签的所有class属性
# xpath_li.py
from lxml import etree
xpath语法 pythonhtml = etree.parse('hello.html')
result = html.xpath('//li/@class')
print result
运⾏结果
['item-0', 'item-1', 'item-inactive', 'item-1', 'item-0']
3. 继续获取<li>标签下hre为link1.html的<a>标签
# xpath_li.py
from lxml import etree
html = etree.parse('hello.html')
result = html.xpath('//li/a[@href="link1.html"]')
print result
运⾏结果
[<Element a at 0x10ffaae18>]
4. 获取<li>标签下的所有<span>标签
# xpath_li.py
from lxml import etree
html = etree.parse('hello.html')
#result = html.xpath('//li/span')
#注意这么写是不对的:
#因为 / 是⽤来获取⼦元素的,⽽ <span> 并不是 <li> 的⼦元素,所以,要⽤双斜杠result = html.xpath('//li//span')
print result
运⾏结果
[<Element span at 0x10d698e18>]
5. 获取<li>标签下的<a>标签⾥的所有 class
# xpath_li.py
from lxml import etree
html = etree.parse('hello.html')
result = html.xpath('//li/a//@class')
print result
运⾏结果
['blod']
6. 获取最后⼀个<li>的<a>的 href
# xpath_li.py
from lxml import etree
html = etree.parse('hello.html')
result = html.xpath('//li[last()]/a/@href')
# 谓语 [last()] 可以到最后⼀个元素
print result
运⾏结果
['link5.html']
7. 获取倒数第⼆个元素的内容

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。