Python爬⾍之爬取某⽂库⽂档数据
⽬录
⼀、基本开发环境
⼆、相关模块的使⽤
三、⽬标⽹页分析
四、整体思路
五、爬⾍代码实现
六、写⼊⽂档
⼀、基本开发环境
Python 3.6
Pycharm
⼆、相关模块的使⽤
import os
import requests
import time
import re
import json
from docx import Document
from docx.shared import Cm
安装Python并添加到环境变量,pip安装需要的相关模块即可。
三、⽬标⽹页分析
⽹站的⽂档内容,都是以图⽚形式存在的。它有⾃⼰的数据接⼝
接⼝链接:
openapi.book118/getPreview.html?&project_id=1&aid=272112230&t=f2c66902d6b63726d8e08b557fef90fb&view_token=SqX7ktrZ_ZakjDI@vcohcCwbn_PLb3C1&page=1&callback=jQuery18304186406662159248_1614492889385&_=1614492889486接⼝的请求参数
四、整体思路
请求⽹页返回response数据(字符串)
通过re模块匹配提取中间的数据(列表)索引取0(字符串)
通过json模块是把提取出来的数据转换成json模块
通过遍历获取每张图⽚的url地址
保存图⽚到本地⽂件夹
把图⽚保存到word⽂档
爬⾍代码实现
五、爬⾍代码实现
def download():
content = 0
for page in range(1, 96, 6):
# 给定 2秒延时
time.sleep(2)
# 获取时间戳
now_time = int(time.time() * 1000)
url = 'openapi.book118/getPreview.html'
# 请求参数
params = {
'project_id': '1',
'aid': '272112230',
't': 'f2c66902d6b63726d8e08b557fef90fb',
'view_token': 'SqX7ktrZ_ZakjDI@vcohcCwbn_PLb3C1',
'page': f'{page}',
'_': now_time,
}
# 请求头
headers = {
'Host': 'openapi.book118',
'Referer': 'max.book118/html/2020/0427/8026036013002110.shtm',
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36' }
response = (url=url, params=params, headers=headers)
# 使⽤正则表达式提取内容
result = re.findall('jsonpReturn\((.*?)\)', )[0]
# 字符串转json数据
json_data = json.loads(result)['data']
# 字典值的遍历
for value in json_data.values():
content += 1
# 拼接图⽚url
img_url = 'http:' + value
print(img_url)
headers_1 = {
'Host': 'view-cache.book118',
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36' }
# 请求图⽚url地址获取content⼆进制数据
img_content = (url=img_url, headers=headers_1).content
# ⽂件名
img_name = str(content) + '.jpg'
# 保存路径
filename = 'img\\'
# 以⼆进制⽅式保存(图⽚、⾳频、视频等⽂件都是以⼆进制的⽅式保存)
with open(filename + img_name, mode='wb') as f:
f.write(img_content)
注意点:
1、⼀定要给延时,不然后⾯接⼝数据会请求不到。
2、请求图⽚url的时候headers参数需要写完整,否则保存图⽚是⽆法打开的
3、命名最好是给定数字,1.jpg、2.jpg 这样,⽅便后续保存到word
爬⾍部分的代码还是⽐较简单的,没有什么特别的难度。
爬取这些⽂档,都是需要打印或者查询所以要把这些单张的图⽚都保存到word⽂档⾥⾯。
六、写⼊⽂档
def save_picture():
document = Document()
python爬虫开发path = './img/'
lis = os.listdir(path)
c = []
for li in lis:
index = li.replace('.jpg', '')
c.append(index)
c_1 = sorted(list(map(int, c)))
print(c_1)
new_files = [(str(i) + '.jpg') for i in c_1]
for num in new_files:
img_path = path + num
document.add_picture(img_path, width=Cm(17), height=Cm(24))
document.save('tu.doc') # 保存⽂档
到此这篇关于Python爬⾍之爬取某⽂库⽂档数据的⽂章就介绍到这了,更多相关python爬取⽂档数据内容请搜索以前的⽂章或继续浏览下⾯的相关⽂章希望⼤家以后多多⽀持!
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论