Python爬⾍爬取爱奇艺电影⽚库⾸页的实例代码上篇⽂章给⼤家介绍了感兴趣的朋友点击查看下。
今天给⼤家介绍Python爬⾍爬取爱奇艺电影⽚库⾸页,下⾯是实例代码,参考下:
import time
import traceback
import requests
from lxml import etree
import re
from bs4 import BeautifulSoup
from lxml.html.diff import end_tag
import json
import pymysql
#连接数据库获取游标
def get_conn():
"""
:return: 连接,游标
"""
# 创建连接
conn = t(host="82.157.112.34",
user="root",
password="root",
db="MovieRankings",
charset="utf8")
# 创建游标
cursor = conn.cursor() # 执⾏完毕返回的结果集默认以元组显⽰
if ((conn != None) & (cursor != None)):
print("数据库连接成功!游标创建成功!")
else:
print("数据库连接失败!")
return conn, cursor
#关闭数据库连接和游标
def close_conn(conn, cursor):
if cursor:
cursor.close()
if conn:
conn.close()
return 1
有个叫什么代码的电影def get_iqy():
# 获取数据库总数据条数
conn, cursor = get_conn()
sql = "select count(*) from movieiqy"
connmit() # 提交事务
all_num = cursor.fetchall()[0][0] #cursor 返回值的类型是⼀个元祖的嵌套形式⽐如( ( ) ,)
pagenum=int(all_num/48)+1 #这⾥是计算⼀个下⾯循环的起始值每48个电影分⼀组
print(pagenum)
print("movieiqy数据库有", all_num, "条数据!")
url = "pcw-api.iqiyi/search/recommend/list?channel_id=1&data_type=1&mode=11&page_id=1&ret_num=48&session=ee4d98ebb4e8e44c8d4b14fa90615fb7"
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36"
}
# (url=url,headers=headers)
# ding="utf-8"
# page_
# print(page_text)
"""
"""
#
temp_list = [] #暂时存放单部电影的数据
dataRes = [] #每次循环把单部电影数据放到这个list
for i in range(pagenum+1, pagenum+100): #循环100-1次
url = "pcw-api.iqiyi/search/recommend/list?channel_id=1&data_type=1&mode=11&page_id=1&ret_num=48&session=ee4d98ebb4e8e44c8d4b14fa90615fb7" url_0 = "pcw-api.iqiyi/search/recommend/list?channel_id=1&data_type=1&mode=11&page_id="
url_0 = url_0 + str(i) + "&ret_num=48&session=ad1d98bb953b7e5852ff097c088d66f2"
print(url_0) #输出拼接好的url
response = (url=url_0, headers=headers)
page_text =
#解析json对象
json_obj = json.loads(page_text)
#这⾥的异常捕获是因为测试循环的次数有可能超过电影⽹站提供的电影数为了防⽌后续爬到空的json对象报错
try:
json_list = json_obj['data']['list']
except KeyError:
return dataRes #json为空程序结束
for j in json_list: # 开始循环遍历json串
# print(json_list)
name = j['name'] #到电影名
print(name)
temp_list.append(name)
#异常捕获,防⽌出现电影没有评分的现象
try:
score = j['score'] #到电影评分
print(score)
temp_list.append(score)
except KeyError:
print( "KeyError")
temp_list.append("iqy暂⽆评分") #替换字符串
link = j['playUrl'] #到电影链接
temp_list.append(link)
# 解析播放状态
state = []
pay_text = j['payMarkUrl'] #因为播放状态只有在⼀个图⽚链接⾥有所以需要使⽤re解析出类似vip和only(独播)的字样
if (len(pay_text) == 0): #如果没有这个图⽚链接说明电影是免费播放
state="免费"
else:
find_state = repile("(.*?).png")
state = re.findall(find_state, pay_text) #正则匹配链接到vip
if(len(state)!=0): #只有当链接不为空再执⾏
# print(state)
# 再次解析
state = state[0][0:3] #字符串分⽚
# 这⾥只输出了三个字符,如果是独播,页⾯显⽰的是only,我们设置为”独播“
if (state == "onl"):
state = "独播"
else:
state = "VIP"
# print(state)
# 添加播放状态
temp_list.append(state)
dataRes.append(temp_list)
# print(temp_list)
temp_list = []
print('___________________________')
return dataRes
def insert_iqy():
cursor = None
conn = None
try:
count=0
list = get_iqy()
print(f"{time.asctime()}开始插⼊爱奇艺电影数据")
conn, cursor = get_conn()
sql = "insert into movieiqy (id,name,score,path,state) values(%s,%s,%s,%s,%s)"
for item in list:
print(item)
count = count + 1
if (count % 48 == 0):
print('___________________________')
#异常捕获,防⽌数据库主键冲突
try:
IntegrityError:
print("重复!跳过!")
connmit() # 提交事务 update delete insert操作
print(f"{time.asctime()}插⼊爱奇艺电影数据完毕")
except:
traceback.print_exc()
finally:
close_conn(conn, cursor)
return;
if __name__ == '__main__':
# get_iqy()
insert_iqy()
到此这篇关于Python爬⾍爬取爱奇艺电影⽚库⾸页的实例代码的⽂章就介绍到这了,更多相关Python爬取爱奇艺电影内容请搜索以前的⽂章或继续浏览下⾯的相关⽂章希望⼤家以后多多⽀持!
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论