python爬虫(Selenium案列)第二十四

devtools/2024/10/18 12:32:22/

🎈🎈作者主页: 喔的嘛呀🎈🎈
🎈🎈所属专栏:python爬虫学习🎈🎈
✨✨谢谢大家捧场,祝屏幕前的小伙伴们每天都有好运相伴左右,一定要天天开心哦!✨✨ 

兄弟姐妹们,大家好!我是喔的嘛呀今天让我们一起学习如何下载浏览器驱动和Selenium的两个案列

目录

一、下载浏览器驱动

二、模拟登录

三、爬取数据

提取电影信息


一、下载浏览器驱动

使用 Selenium 需要下载相应的浏览器驱动,以便 Selenium 能够控制浏览器。不同的浏览器需要使用对应的驱动程序,例如 Chrome 需要 chromedriver,Firefox 需要 geckodriver。

以下是下载浏览器驱动的一般步骤:

我用的谷歌浏览器,我就以谷歌浏览器为例。

1、确定浏览器版本:首先确定你需要使用的浏览器版本,例如 Chrome 的版本是多少。

(1)点上面那三个点,再点设置

(2)点关于chrome就可以看见版本信息

2、下载对应版本的驱动程序:访问对应浏览器驱动的官方网站下载页面,下载对应浏览器版本的驱动程序。以下是谷歌浏览器的驱动下载页面:

Chrome for Testing availability

我下的是这个

(3)将驱动程序添加到系统 PATH:下载完成后,将驱动程序所在目录添加到系统的 PATH 环境变量中,这样 Selenium 就能找到驱动程序。

所在目录不要有中文

然后把他加到环境变量中去,就OK了。

二、模拟登录

下面会展示如何使用 Selenium 打开 Gitte 网站,模拟用户登录

1、定位要输入账号和密码的网页结构

By.ID 是 Selenium 中用于根据 HTML 元素的 id 属性来定位元素的方法。在这个例子中,'user_login' 是要定位的元素的 id 属性的值,表示用户名输入框。'user_password' 就是密码输入框通过这种方式,Selenium 可以精确地找到页面上具有特定 id 属性值的元素,从而实现对该元素的操作,比如输入文本、点击等。

2、我们需要找到value=‘登录’的input表单,需要用xpath表达式

  • //input:选择所有的 <input> 元素,不论它们在文档中的位置。
  • [@value="登 录"]:筛选出其中 value 属性值为 "登 录" 的元素。

综合起来,'//input[@value="登 录"]'这个 XPath 表达式选择了文档中 value 属性值为 "登 录" 的所有 <input> 元素。在这个特定的场景下,假设这个 XPath 表达式能够准确地定位到登录按钮元素,从而实现后续的点击操作。

3、根据上面的思路开始写代码

import time
from selenium import webdriver
from selenium.webdriver.chrome.service import Service
from selenium.webdriver.chrome.options import Options
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.common.exceptions import NoSuchElementException# 配置 ChromeDriver 路径
driver_path = 'G:\\chromedriver-win64\\chromedriver.exe'(我自己的路径)# 创建 Chrome WebDriver 实例
service = Service(driver_path)
options = Options()
driver = webdriver.Chrome(service=service, options=options)# 打开 Gitte 网站
driver.get('<https://gitee.com/login?redirect_to_url=%2F>')# 输入用户名和密码
username_input = WebDriverWait(driver, 10).until(EC.presence_of_element_located((By.ID, 'user_login'))
)
password_input = driver.find_element(By.ID, 'user_password')username_input.send_keys('YourUsername')
password_input.send_keys('YourPassword')# 提交登录表单
login_button = driver.find_element(By.XPATH, '//input[@value="登 录"]')
login_button.click()# 等待登录成功并跳转到个人信息页面
try:WebDriverWait(driver, 30).until(EC.url_contains('<https://gitee.com/your_username>'))
except:print("登录超时或失败")# 关闭浏览器
driver.quit()

这段代码是可以成功模拟登陆的,就是点运行之后会自己跳出来窗口自动输入你的账号密码,并自动登录

因为涉及个人信息,我这里就不演示结果了大家可以自己试试。

三、爬取数据

利用Selenium自动化翻页爬取豆瓣电影Top250的数据(("排名", "电影名称", "导演", "上映时间", "评分", "评价人数", "链接"))并保存到Excel文件中:

# 导入需要的模块
from selenium import webdriver  # 用于启动浏览器并访问网页
from selenium.webdriver.common.by import By  # 用于定位元素
from selenium.webdriver.support.ui import WebDriverWait  # 用于等待元素加载
from selenium.webdriver.support import expected_conditions as EC  # 用于设置等待条件
import xlwt  # 用于生成Excel文件
import time as tm  # 用于等待页面加载# 保存数据到Excel文件
def save_to_excel(save_path, data_lists):"""保存数据到Excel文件:param save_path: 保存文件的路径:param data_lists: 数据列表,包含要保存的数据"""# 创建一个新的Excel文件workbook = xlwt.Workbook(encoding="utf-8")# 创建一个工作表worksheet = workbook.add_sheet("豆瓣电影Top250", cell_overwrite_ok=True)# 定义表头name_sheet = ("排名", "电影名称", "导演", "上映时间", "评分", "评价人数", "链接")# 写入表头数据for i in range(len(name_sheet)):worksheet.write(0, i, name_sheet[i])# 写入电影数据for i in range(len(data_lists)):item = data_lists[i]for j in range(len(item)):worksheet.write(i + 1, j, item[j])# 保存Excel文件workbook.save(save_path)# 爬取豆瓣电影Top250数据
def crawl_douban_top250(url):"""爬取豆瓣电影Top250数据:param url: 豆瓣电影Top250的网址:return: 包含爬取数据的列表"""# 启动Chrome浏览器并打开网页driver = webdriver.Chrome()driver.get(url)# 保存爬取的数据datalists = []try:while True:# 等待电影条目加载完成WebDriverWait(driver, 10).until(EC.presence_of_element_located((By.CLASS_NAME, 'item')))# 获取电影条目列表items = driver.find_elements(By.CLASS_NAME, 'item')for item in items:try:# 提取电影信息rank = item.find_element(By.XPATH, './/em[@class=""]').texttitle = item.find_element(By.XPATH, './/div[@class="hd"]/a/span[1]').textinfo = item.find_element(By.XPATH, './/div[@class="bd"]/p[1]').text.split('\\n')director = info[0].split('导演: ')[-1]time_info = info[1].split(' / ')[0] if len(info) > 1 else ''rating = item.find_element(By.XPATH, './/span[@class="rating_num"]').textcomment_num = item.find_element(By.XPATH, './/div[@class="star"]/span[last()]').text[:-3]link = item.find_element(By.XPATH, './/div[@class="hd"]/a').get_attribute('href')# 将提取的信息添加到datalists列表中datalists.append([rank, title, director, time_info, rating, comment_num, link])except Exception as e:# 输出提取失败的异常信息print("Failed to extract element:", e)# 查找下一页按钮next_button = driver.find_element(By.CLASS_NAME, 'next')# 如果下一页按钮不可点击,则表示数据已经全部爬取完毕,退出循环if not next_button.is_enabled():break# 滚动到下一页按钮处并点击driver.execute_script("arguments[0].scrollIntoView();", next_button)next_button.click()# 等待2秒,确保页面加载完成tm.sleep(2)except Exception as e:# 输出异常信息print("An error occurred:", e)finally:# 关闭浏览器driver.quit()return datalistsif __name__ == '__main__':# 设置豆瓣电影Top250的URLurl = '<https://movie.douban.com/top250>'# 调用爬取函数获取数据data_lists = crawl_douban_top250(url)# 保存数据到Excel文件save_to_excel(r'douban9_top250.xls', data_lists) //路径可以随意

提取电影信息上面有一些被挡住了,我单独抽出来:

提取电影信息

                rank = item.find_element(By.XPATH, './/em[@class=""]').texttitle = item.find_element(By.XPATH, './/div[@class="hd"]/a/span[1]').textinfo = item.find_element(By.XPATH, './/div[@class="bd"]/p[1]').text.split('\\n')director = info[0].split('导演: ')[-1]time_info = info[1].split(' / ')[0] if len(info) > 1 else ''rating = item.find_element(By.XPATH, './/span[@class="rating_num"]').textcomment_num = item.find_element(By.XPATH, './/div[@class="star"]/span[last()]').text[:-3]link = item.find_element(By.XPATH, './/div[@class="hd"]/a').get_attribute('href')# 将提取的信息添加到datalists列表中datalists.append([rank, title, director, time_info, rating, comment_num, link])except Exception as e:# 输出提取失败的异常信息print("Failed to extract element:", e)

代码运行之后也会自己跳出来窗口,自己模仿人工进行翻页(应对反爬)总共有十页,到第十页的时候,等待一会手动关闭窗口。等带十秒钟左右,就会出现Excel文件。

结果展示:

总共248丢了两条,嘿嘿。

这个 Selenium我觉得还是比较难的,费了我很长时间,才爬出来了。比较菜,还得练。还有爬了一个boss直聘没爬出来。过几天再试试。

好了,今天的学习就到这里了,拜拜喽!


http://www.ppmy.cn/devtools/14861.html

相关文章

浏览器和nodejs中的eventloop

浏览器和nodejs中的eventloop 浏览器中的Event Loop 在浏览器中&#xff0c;设计成为了单线程。如果要处理异步请求&#xff0c;则需要增加一层调度逻辑&#xff0c;把js代码封装成一个个的任务&#xff0c;放在一个任务队列中&#xff0c;主线程不断的读取任务执行。每次调取…

【linux】Linux第一个小程序-进度条

1. 预备知识&#xff1a;回车和换行 回车&#xff08;Carriage Return&#xff0c;CR&#xff09;&#xff1a; 在早期的机械打字机中&#xff0c;回车指的是将打字机的打印头移回到行首的操作&#xff0c;这样打印头就可以开始新的一行的打印。在ASCII编码中&#xff0c;回车用…

【AI 测试】分词器

目录 概念分词器种类主要应用场景几种常用的分词器适合用于自然语言处理任务的分词器分词器使用实例概念 分词器(Tokenizer)是一种自然语言处理工具,其核心功能是将连续的自然语言文本切分为一系列有意义的词汇单元。这些词汇单元通常是词或短语,它们在语言学上具有一定的…

服用5年份筑基丹 - React篇

前言 React&#xff0c;作为前端领域的一股强大势力&#xff0c;以其组件化、声明式的编程范式赢得了众多修仙者的青睐。然而&#xff0c;要想真正掌握 React 的精髓&#xff0c;却需要深入骨髓的修炼与理解。这五年的筑基丹&#xff0c;正是我修炼 React 的得力助手。 服下此…

基于51单片机的矩阵按键扫描的proteus仿真

文章目录 一、按键按键按键消抖 二、独立按键仿真图仿真程序 三、矩阵按键仿真图仿真程序 四、总结 一、按键 按键 按键通常指的是电子设备上的一种输入装置&#xff0c;用于在按下时发送信号&#xff0c;以便设备执行相应的操作。按键可以分为独立按键和矩阵按键两种类型。 …

Apache反向代理的功能和設置

Apache反向代理是Apache HTTP伺服器的一種功能&#xff0c;可以讓伺服器接收客戶端的請求並將其轉發到其他伺服器&#xff0c;然後將這些伺服器的回應返回給客戶端。這樣&#xff0c;客戶端就像直接訪問Apache伺服器一樣&#xff0c;而實際上是在訪問其他的伺服器。 Apache反向…

信息收集分类

在信息收集中&#xff0c;需要收集的信息&#xff1a;目标主机的DNS信息、目标IP地址、子域名、旁站和C段、CMS类型、敏感目录、端口信息、操作系统版本、网站架构、漏洞信息、服务器与中间件信息、邮箱、人员、地址等。 信息收集区别 主动信息收集&#xff1a;直接与目标信息发…

Element-plus DatePicker 日期选择器【正则校验时间范围】

效果图&#xff1a; 利用element-plus中的form表单验证完成效果。 <el-form-item label"检查计划截止日期&#xff1a;" prop"deadline"><el-date-pickerv-model"form.deadline"value-format"YYYY-MM-DD"style"width: …