Python爬⾍⼊门教程01之爬取⾖瓣Top电影前⾔
本⽂的⽂字及图⽚来源于⽹络,仅供学习、交流使⽤,不具有任何商业⽤途,如有问题请及时以作处理
基本开发环境
Python 3.6
Pycharm
相关模块的使⽤
requests
parsel
csv
安装Python并添加到环境变量,pip安装需要的相关模块即可。
爬⾍基本思路
python请求并解析json数据
⼀、明确需求
爬取⾖瓣Top250排⾏电影信息
电影名字
导演、主演
年份、国家、类型
评分、评价⼈数
电影简介
⼆、发送请求
Python中的⼤量开源的模块使得编码变的特别简单,我们写爬⾍第⼀个要了解的模块就是requests。
请求url地址,使⽤get请求,添加headers请求头,模拟浏览器请求,⽹页会给你返回response对象
# 模拟浏览器发送请求
import requests
url = 'movie.douban/top250'
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'
}
response = (url=url, headers=headers)
print(response)
字母大小写转换器在线
200是状态码,表⽰请求成功
2xx (成功)
3xx (重定向)
4xx(请求错误)
5xx(服务器错误)
常见状态码
200 - 服务器成功返回⽹页,客户端请求已成功。
302 - 对象临时移动。服务器⽬前从不同位置的⽹页响应请求,但请求者应继续使⽤原有位置来进⾏以后的请求。
304 - 属于重定向。⾃上次请求后,请求的⽹页未修改过。服务器返回此响应时,不会返回⽹页内容。
401 - 未授权。请求要求⾝份验证。对于需要登录的⽹页,服务器可能返回此响应。
404 - 未到。服务器不到请求的⽹页。
503 (服务不可⽤)服务器⽬前⽆法使⽤(由于超载或停机维护)。
通常,这只是暂时状态。
三、获取数据
import requests
url = 'movie.douban/top250'
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'
}
response = (url=url, headers=headers)
)
<(url=url, headers=headers)请求⽹页返回的是response对象
<:获取⽹页⽂本数据
response.json:获取⽹页json数据
这两个是⽤的最多的,当然还有其他的
apparent_encoding cookies  history
iter_lines  ok      close
elapsed  is_permanent_redirect  json
raise_for_status  connection  encoding
is_redirect  links    raw
content  headers  iter_content
next  reason    url
四、解析数据
常⽤解析数据⽅法:正则表达式、css选择器、xpath、lxml…
常⽤解析模块:bs4、parsel…
我们使⽤的是parsel⽆论是在之前的⽂章,还是说之后的爬⾍系列⽂章,我都会使⽤parsel这个解析库,⽆它就是觉得它⽐bs4⾹。parsel是第三⽅模块,pip install parsel安装即可
parsel 可以使⽤ css、xpath、re解析⽅法
所有的电影信息都包含在li标签当中。
# 把 ⽂本数据转换成 selector 对象
selector = parsel.)
# 获取所有li标签
lis = selector.css('.grid_view li')
# 遍历出每个li标签内容
for li in lis:
# 获取电影标题 hd 类属性下⾯的 a 标签下⾯的第⼀个span标签⾥⾯的⽂本数据 get()输出形式是字符串获取⼀个 getall() 输出形式是列表获取所有
title = li.css('.hd a span:nth-child(1)::text').get() # get()输出形式是字符串
movie_list = li.css('.bd p:nth-child(1)::text').getall() # getall() 输出形式是列表
star = movie_list[0].strip().replace(' a0 a0 a0', '').replace('/...', '')
movie_info = movie_list[1].strip().split(' a0/ a0') # ['1994', '美国', '犯罪剧情']
movie_time = movie_info[0] # 电影上映时间
movie_country = movie_info[1] # 哪个国家的电影
movie_type = movie_info[2] # 什么类型的电影
rating_num = li.css('.rating_num::text').get() # 电影评分
people = li.css('.star span:nth-child(4)::text').get() # 评价⼈数
summary = li.css('.inq::text').get() # ⼀句话概述
dit = {
'电影名字': title,
'参演⼈员': star,
'上映时间': movie_time,
'拍摄国家': movie_country,
'电影类型': movie_type,
'电影评分': rating_num,study汉语什么意思
'评价⼈数': people,
'电影概述': summary,
}
# pprint 格式化输出模块
honorable是什么意思
pprint.pprint(dit)
以上的知识点使⽤到了
parsel 解析模块的⽅法
for 循环
css 选择器
字典的创建
列表取值
字符串的⽅法:分割、替换等
pprint 格式化输出模块
所以扎实基础是很有必要的。不然你连代码都不知道为什么要这样写。
五、保存数据(数据持久化)
常⽤的保存数据⽅法with open
像⾖瓣电影信息这样的数据,保存到Excel表格⾥⾯会更好。
所以需要使⽤到csv模块
# csv模块保存数据到Excel
f = open('⾖瓣电影数据.csv', mode='a', encoding='utf-8', newline='')
csv_writer = csv.DictWriter(f, fieldnames=['电影名字', '参演⼈员', '上映时间', '拍摄国家', '电影类型',
'电影评分', '评价⼈数', '电影概述'])
csv_writer.writeheader() # 写⼊表头
这就是爬取了数据保存到本地了。这只是⼀页的数据,爬取数据肯定不只是爬取⼀页数据。想要实现多页数据爬取,就要分析⽹页数据的url地址变化规律。
可以清楚看到每页url地址是 25 递增的,使⽤for循环实现翻页操作
for page in range(0, 251, 25):
url = f'movie.douban/top250?start={page}&filter='
完整实现代码
""""""
import pprint
import requests
import parsel
import csv
'''
1、明确需求:
爬取⾖瓣Top250排⾏电影信息
电影名字
导演、主演
年份、国家、类型
评分、评价⼈数
电影简介
'''
# csv模块保存数据到Excel
f = open('⾖瓣电影数据.csv', mode='a', encoding='utf-8', newline='')
csv_writer = csv.DictWriter(f, fieldnames=['电影名字', '参演⼈员', '上映时间', '拍摄国家', '电影类型',
'电影评分', '评价⼈数', '电影概述'])
csv_writer.writeheader() # 写⼊表头
# 模拟浏览器发送请求
for page in range(0, 251, 25):
url = f'movie.douban/top250?start={page}&filter='
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'
}
response = (url=url, headers=headers)
# 把 ⽂本数据转换成 selector 对象
selector = parsel.)
# 获取所有li标签
lis = selector.css('.grid_view li')
# 遍历出每个li标签内容
for li in lis:
# 获取电影标题 hd 类属性下⾯的 a 标签下⾯的第⼀个span标签⾥⾯的⽂本数据 get()输出形式是字符串获取⼀个 getall() 输出形式是列表获取所有 title = li.css('.hd a span:nth-child(1)::text').get() # get()输出形式是字符串
movie_list = li.css('.bd p:nth-child(1)::text').getall() # getall() 输出形式是列表
star = movie_list[0].strip().replace(' a0 a0 a0', '').replace('/...', '')
movie_info = movie_list[1].strip().split(' a0/ a0') # ['1994', '美国', '犯罪剧情']
movie_time = movie_info[0] # 电影上映时间
movie_country = movie_info[1] # 哪个国家的电影
movie_type = movie_info[2] # 什么类型的电影
rating_num = li.css('.rating_num::text').get() # 电影评分
people = li.css('.star span:nth-child(4)::text').get() # 评价⼈数
summary = li.css('.inq::text').get() # ⼀句话概述
dit = {
'电影名字': title,
'参演⼈员': star,
'上映时间': movie_time,
'拍摄国家': movie_country,
'电影类型': movie_type,
'电影评分': rating_num,
'评价⼈数': people,
'电影概述': summary,
}
pprint.pprint(dit)
csv_writer.writerow(dit)
实现效果
asp泛目录>several怎么读

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。