网站:Scrape | Movie
requests (网络请求模块) | pandas (数据保存模块) |
parsel (数据解析模块) | lxml (数据解析模块) |
pyecharts (可视化库) | flask(框架) |
以上的模块均需要通过 指令 pip install 模块名 安装
Explain:
分析此页面的数据为静态的还是动态加载的 右击打开查看页面源代码 可知此网站的数据为静态的
我们所需要采集的数据都在里面
爬取步骤:
一. 发送请求 模拟浏览器向服务器发送请求
F12 打开开发者工具 or 右击打开检查
接着分析html代码的结构 找出数据的所在位置
Class属性为(el-card item m-t is-hover-shadow) div 包含我们的数据
通过类名拿到之后遍历取值
python"># 导包 导入所需要的模块 库
import requests
import parsel
from lxml import etreeimport pandas as pdurl = f'https://ssr1.scrape.center/page/{page}'
# 因为此网站无反爬 不需要加额外参数的请求头
headers = {'user-agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/128.0.0.0 Safari/537.36 Edg/128.0.0.0','referer': 'https://ssr1.scrape.center/page/2'
}
resp = requests.get(url, headers=headers)
# 实例一个selector对象
selector = parsel.Selector(resp.text)
# css 语法 获取所有的div
lis = selector.css('.el-card.item.m-t.is-hover-shadow')
进一步分析 各个数据的位置
电影名称 .m-b-sm::text 提取里面的文本
电影类型 .categories span::text 拿到所有的span标签中的文本
电影区域|上映时间|电影时长 .m-v-sm.info span::text 同上详情页链接 .name::attr(href) 拿到详情页里面的剧情介绍
二. 解析数据
电影类型:
电影区域|上映时间|电影时长:
评分:
多页的数据采集
page 参数的不同 可以嵌套for循环实现
三. 提取数据 提取所需要的数据
python">import requests
import parsel
from lxml import etreeimport pandas as pd# 多页爬取
for page in range(1,11):url = f'https://ssr1.scrape.center/page/{page}'headers = {'user-agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/128.0.0.0 Safari/537.36 Edg/128.0.0.0',# 多页爬取最好加个防盗链'referer': 'https://ssr1.scrape.center/page/2'}resp = requests.get(url, headers=headers)selector = parsel.Selector(resp.text)# 解析成htmlhtml = etree.HTML(resp.text)lis = selector.css('.el-card.item.m-t.is-hover-shadow')for li in lis:title = li.css('.m-b-sm::text').get()# 转换成字符串 处理成想要的数据score = ''.join(html.xpath("//*[@class ='score m-t-md m-b-n-sm']/text()")[0]).strip()type = ' '.join(li.css('.categories span::text').getall())# 对得到的列表数据取值area = li.css('.m-v-sm.info span::text').getall()[0]time = li.css('.m-v-sm.info span::text').getall()[-2]upload_time = li.css('.m-v-sm.info span::text').getall()[-1]# 电影封面数据img_url = li.css('.cover::attr(src)').get()# 电影内页链接href = li.css('.name::attr(href)').getall()# for 循环遍历 拼接URL 地址获取剧情简介for i in href:inner_url = 'https://ssr1.scrape.center' + iresponse = requests.get(url=inner_url, headers=headers)inner_select = parsel.Selector(response.text)# 获取数据 转换成字符串introduce = ''.join(inner_select.css('.drama p::text').get()).strip()# 用字典封装起来dit = {"title": title,"score": score,"type": type,"area": area,"time": time,"upload_time": upload_time,"introduce": introduce,"img_url": img_url,}
四.保存数据 保存数据到本地
python"># 定义一个空列表
all = []
# 将字典数据添加到列表中
all.append(dit)
# 通过pandas 保存数据 不保存索引
pd.DataFrame(all).to_excel('movie_info.xlsx', index=False)
完整代码如下:
仅供学习参考
python">import requests
import parsel
from lxml import etreeimport pandas as pdall = []
for page in range(1,11):url = f'https://ssr1.scrape.center/page/{page}'headers = {'user-agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/128.0.0.0 Safari/537.36 Edg/128.0.0.0','referer': 'https://ssr1.scrape.center/page/2'}resp = requests.get(url, headers=headers)selector = parsel.Selector(resp.text)html = etree.HTML(resp.text)lis = selector.css('.el-card.item.m-t.is-hover-shadow')for li in lis:title = li.css('.m-b-sm::text').get()score = ''.join(html.xpath("//*[@class ='score m-t-md m-b-n-sm']/text()")[0]).strip()type = ' '.join(li.css('.categories span::text').getall())area = li.css('.m-v-sm.info span::text').getall()[0]time = li.css('.m-v-sm.info span::text').getall()[-2]upload_time = li.css('.m-v-sm.info span::text').getall()[-1]img_url = li.css('.cover::attr(src)').get()href = li.css('.name::attr(href)').getall()for i in href:inner_url = 'https://ssr1.scrape.center' + iresponse = requests.get(url=inner_url, headers=headers)inner_select = parsel.Selector(response.text)introduce = ''.join(inner_select.css('.drama p::text').get()).strip()dit = {"title": title,"score": score,"type": type,"area": area,"time": time,"upload_time": upload_time,"introduce": introduce,"img_url": img_url,}all.append(dit)pd.DataFrame(all).to_excel('movie_info.xlsx', index=False)
运行 数据采集成功
处理数据 将想要的字段数据可视化 生成图表
python">#导包
import pandas as pd
from pyecharts.charts import Line
# 配置项
from pyecharts import options as opt# 读取文件
df = pd.read_excel('movie_info.xlsx')
title = df['title'].tolist()
score = df['score'].tolist()
bar =(Line()# 添加x y轴数据.add_xaxis(title)# 显示最大最小值的数据.add_yaxis('评分',score,markpoint_opts=opt.MarkPointOpts(data=[opt.MarkPointItem(type_='max'),opt.MarkPointItem(type_='min'),]))# 设置标题.set_global_opts(title_opts=opt.TitleOpts(title='电影信息评分'),)# 隐藏其它的数值.set_series_opts(label_opts=opt.LabelOpts(is_show=False))
).render('score.html')
# 生产html文件
接着渲染到Flask上
render_template
:它是一个用于渲染模板文件的函数。在 Flask 中,通常会将 HTML 页面等内容写在模板文件里(比如使用 Jinja2 模板引擎的模板文件),这个函数能够将模板文件与 Python 代码中的数据结合起来,生成最终要返回给客户端的 HTML 页面等内容。
python">from flask import Flask,render_template,request#这里实例化了 Flask 类,创建了一个 Flask 应用对象,并将当前模块的名称(通过 Python 内置的 __name__ 变量获取)传递给 Flask 类的构造函数。这个应用对象是后续定义路由、启动服务器等操作的基础
app = Flask(__name__)
# 设置路由
# 是一个装饰器,用于将一个 Python 函数(在这里是 view 函数)与一个特定的 URL 路径进行绑定,也就是定义了一个路由。在这个例子中,/ 表示应用的根路径,意味着当用户通过浏览器访问这个 Flask 应用的根 URL(比如 http://localhost:5000/,默认运行在 5000 端口)时,view 函数就会被调用
@app.route('/')
def view():return render_template('view.html')if __name__ == '__main__':# 服务器的启动方式 通过刷新就可以实时查看app.run(debug=True)
点击就可以打开服务器看到我们渲染的图表了