Python爬虫技术与K-means算法的计算机类招聘信息获取与数据分析

ops/2024/10/25 16:28:49/

有需要本项目的代码或文档以及全部资源,或者部署调试可以私信博主

目录

摘要.... 1

Abstract 2

1 引言.... 3

1.1 研究背景... 3

1.2 国内外研究现状... 4

1.3 研究目的... 5

1.4 研究意义... 7

2 关键技术理论介绍... 7

2.1 Python爬虫... 7

2.1 K-means聚类... 9

2.3 matplotlib可视化... 10

3 数据获取及预处理... 10

3.1 爬虫设计与实现... 11

3.2 数据预处理实现... 12

4 数据分析及可视化... 15

4.1 各地区的职位分布... 15

4.2 不同学历之间薪资分析... 16

4.3 不同公司类型职位需求分析... 17

4.4 福利和招聘职位热度分析... 18

4.5 公司规模与薪资之间的分析... 20

4.6 不同大类岗位薪资发布... 21

5 K-means聚类及实现过程... 21

5.1 特征编码... 21

5.2 相关性分析... 22

5.3 数据标准化及选择... 24

5.4 聚类数量选择及结果分析... 24

6 总结.... 28

6.1 本研究的创新之处... 28

6.2 本研究的不足之处... 29

参考文献... 29

致谢.... 31

Python爬虫技术与K-means算法的计算机类招聘信息获取与数据分析

摘要

在当今数字化时代,随着互联网和大数据技术的飞速发展,获取和分析在线招聘信息已成为市场研究和人力资源管理领域的热门话题。本研究利用Python爬虫技术结合K-means聚类算法,对计算机类职位的在线招聘信息进行了深入的获取和数据分析,旨在揭示当前计算机行业的就业市场特征和求职者的就业机会。

首先,通过编写高效的Python爬虫脚本,我们从主要的在线招聘平台51-job上自动化收集了大量关于计算机类职位的招聘信息,包括但不限于职位名称、薪资范围、工作地点、工作年限要求、学历要求等关键信息。该过程中采用了Selenium和lxml等库来模拟浏览器行为和解析HTML,确保了数据的全面性和准确性。

收集到的原始数据经过预处理阶段的清洗和格式化, 此外,通过数据可视化技术,我们对分析结果进行了直观展示,包括地区分布的热力图、薪资水平的箱线图、行业需求的柱状图等,使求职者和雇主能够快速理解当前就业市场的动态和特点。随后应用K-means聚类算法进行数据分析。我们通过前期的数据分析选择适当的特征集,对职位信息进行了多维度的聚类,以识别就业市场中的主要模式和趋势。聚类分析揭示了不同职位类别的薪资分布、技能需求和教育背景要求等关键特征,求职者可以根据岗位信息特征之间的相似度进行快速匹配岗位,有利于求职者快速找到自己心仪的方向。

本研究的实证分析结果表明,Python爬虫技术结合K-means算法是一种有效的计算机类招聘信息获取与数据分析方法。它不仅能够提供实时、全面的就业市场洞察,而且还能帮助求职者和雇主做出更加科学的决策。随着技术的不断进步和数据分析方法的日趋成熟,该研究方向有望在未来发挥更大的潜力,进一步推动人力资源管理和职业规划的创新发展。

1 引言

1.1 研究背景

在全球化的大背景下,信息技术的飞速发展极大地推动了经济的全球一体化和知识经济的崛起,特别是计算机科学及其相关领域成为了推动社会发展的关键力量之一。随着互联网技术和移动通信技术的广泛应用,数据的生成和积累呈现出爆炸式增长,这不仅为各行各业提供了前所未有的发展机遇,也对人才的需求提出了新的挑战和要求。计算机类职位,作为信息时代最为核心的职业之一,其市场动态、人才需求及就业趋势成为了各界广泛关注的焦点。

1.2 国内外研究现状

在过去几年里,随着数据科学和大数据技术的飞速发展,对于招聘数据的分析和可视化研究越来越受到学术界和业界的关注。基于此,本文综述了近期国内外在招聘数据分析与可视化领域的研究进展,旨在为求职者和招聘者提供更加精准有效的匹配服务,同时为高校就业指导和企业人才招聘策略的优化提供理论支持。

1.3 研究目的

随着互联网的普及和在线招聘平台的兴起,大量就业信息的实时更新为研究计算机类职位提供了前所未有的数据支持。然而,如何从海量的在线招聘数据中有效提取、分析并解读这些信息,以揭示就业市场的实时动态和趋势,成为了一个挑战性的任务。鉴于此,本研究旨在探索一种结合Python爬虫技术和K-means聚类算法的方法,对计算机类职位的在线招聘信息进行高效获取、分析和解读,以提供深入的就业市场洞察和趋势预测。

1.4 研究意义

在信息技术高速发展的今天,计算机及相关领域已成为推动社会进步和经济发展的核心力量。随之而来的是对计算机专业人才的大量需求,这使得就业市场面临着前所未有的机遇和挑战。在这样的背景下,对计算机类职位的就业市场进行深入研究,不仅具有重要的理论意义,也具有显著的实践价值。

2 关键技术理论介绍

2.1 Python爬虫

在数字信息时代的洪流中,互联网成为了连接世界、汇聚信息的庞大网络。在这个信息密集的环境中,Python爬虫技术如同一只灵巧的手,穿梭于网页之间,悄然而敏捷地收集和整理我们所需的数据,将无序的信息转化为有价值的知识。爬虫技术,特别是在Python这一动态和强大的编程语言支持下,已经成为了数据科学家、研究人员甚至是商业分析师不可或缺的工具之一。

2.1 K-means聚类

K-means聚类算法是数据挖掘和机器学习领域中一种广泛使用的无监督学习方法,其核心思想是将一组数据分割成若干个具有内在相似性的子集或“簇”。这种算法的优雅之处在于其简洁性与效率,使其成为解决各种聚类问题的首选方法之一。

2.3 matplotlib可视化

Matplotlib是Python编程语言及其数值数学扩展NumPy的绘图库。它提供了一个面向对象的API,用于嵌入图表到使用通用图形用户界面工具包的应用程序中,如Tkinter, wxPython, Qt或GTK。尽管Matplotlib是在Python中创建的,它也可以用于其他编程语言中的Python脚本。Matplotlib最初是由John D. Hunter创建的,现在是一个活跃的开源项目,拥有一个庞大的用户和开发者社区。

3 数据获取及预处理

3.1 爬虫设计与实现

在本研究中,为了深入分析计算机领域的就业市场趋势,我们采取了自动化数据获取方法,利用Python编写了高效的爬虫程序,从在线招聘平台收集了约17000条职位信息。这些职位覆盖了计算机科学及相关领域的多个关键岗位,包括但不限于BI工程师、C++开发者、iOS开发工程师、Java开发工程师、Linux专家、Python开发者、Spark工程师、Web前端开发者、大数据开发工程师、数据分析工程师、数据库专家、数据治理工程师、测试工程师、深度学习工程师、算法工程师及运维工程师等。

数据的获取过程涉及了多个技术要点。首先,我们利用Selenium库与Firefox WebDriver配合,模拟了用户浏览网页的行为,确保能够访问并抓取动态生成的网页内容。Selenium的使用不仅允许我们绕过简单的反爬虫机制,还能通过模拟翻页、点击等操作,实现对招聘信息的全面抓取。

在抓取过程中,每当浏览器加载新的招聘信息页面,爬虫程序就会执行JavaScript,模拟用户滚动页面的行为,以确保动态加载的内容被完整地呈现。随后,爬虫通过解析页面的DOM结构,准确地定位到包含职位信息的HTML元素。我们采用了lxml库和XPath选择器来提取这些元素中的数据,包括职位名称、薪资范围、工作地点、工作经验要求、学历要求、公司名称、公司规模和行业等关键信息。

为了提高数据收集的效率和准确性,我们对爬虫程序进行了精心设计,包括设置合理的请求间隔以避免对招聘网站服务器造成过大负担,以及实现了错误处理机制来应对网络请求失败等意外情况。所有抓取到的职位信息都被组织成结构化数据,并存储到Excel文件中,方便后续的数据分析工作。

通过这一自动化的数据获取过程,我们不仅大大提高了数据收集的效率,还保证了数据的全面性和准确性,为深入分析计算机领域的就业市场趋势提供了坚实的数据基础。

图 1 爬虫数据展示

3.2 数据预处理实现

在本研究的数据预处理阶段,我们采取了一系列步骤以确保数据的质量和可分析性,为后续的深入分析奠定了坚实的基础。首先,我们通过Python的Pandas库和glob模块,从指定目录下读取了所有Excel格式的数据文件。这些文件包含了从在线招聘平台爬取的计算机及相关领域职位的详细信息。读取后,我们将这些分散的数据帧合并为一个大的数据集,使得接下来的处理步骤更加高效和统一。

图 2 合并数据

在合并数据之后,我们进行了一系列清洗和格式化的操作。考虑到原始数据中包含了许多对分析并不必要的特征,如职位ID、公司ID等,这些特征对于理解职位市场的趋势和特性并没有实质性的帮助,因此我们决定将这些不必要的列从数据集中删除。这一步骤不仅简化了数据集,也提高了后续处理的效率。

图 3 删除列及重命名字段

接着,我们对数据中的某些列进行了进一步的处理。特别地,原始数据中的'exrInfo'列是以字符串形式存储的字典,其中包含了一些关于职位的额外信息,比如是否为HR标注的职位。我们通过将这些字符串转换为字典并提取'rexInfo'中的'isHrLabel'字段,得到了一个新的特征列。这样的处理不仅使数据格式更加统一,也便于后续分析中对这些特征的利用。

数据清洗的另一个重要方面是对薪资信息的处理。由于薪资字段中存在多种不同的表示方式,我们设计了一套复杂的逻辑来统一这些薪资信息,并转换为月薪的形式。这包括处理不同的薪资单位(如“万/年”、“千/月”等)和不同的薪资范围(如“5-8万/年”)。通过这种方式,我们能够获得一个更为一致和可比较的薪资数据,为分析薪资分布和趋势提供了坚实的基础。

为了统一薪资信息并将其转换为月薪形式,我们设计了一套细致的处理逻辑,涵盖了多个步骤以应对薪资信息中的各种表述形式。以下是我们采用的方法总结:

  • 薪资信息拆分:首先,我们将薪资字段中的信息根据不同的表述形式(如范围表示“5-8万/年”或单一值表示“6千/月”)进行拆分。这一步是通过对字符串进行解析,识别其中的数字、单位和范围符号(如“-”)完成的。
  • 单位识别与转换:接着,我们对薪资的单位进行识别,针对“万/年”、“千/月”、“元/天”等不同单位采取了相应的转换策略。例如,将“万/年”的薪资除以12转换为“万/月”,然后再转换为“元/月”;将“千/月”的薪资直接转换为“元/月”。这一步骤是通过单位识别和数值计算实现的,确保了薪资数据的一致性和可比性。
  • 薪资范围处理:对于表示为范围的薪资信息,我们计算了范围的平均值来代表该职位的预估月薪。例如,对于“5-8万/年”的薪资范围,我们首先将其转换为月薪范围“4167-6667元/月”,然后取平均值“5417元/月”作为该职位的预估月薪。
  • 特殊情况处理:对于包含特殊标记或缺少单位的薪资信息,我们采取了默认处理规则或者根据上下文进行了合理的假设。例如,如果薪资信息仅给出一个数字而没有单位,则可能需要根据该职位的常见薪资水平和地区标准进行估算。
  • 数据清洗与验证:最后,我们对转换后的薪资数据进行了清洗和验证,确保转换逻辑的准确性和结果的合理性。这包括剔除转换后异常高或低的薪资值,以及对缺失或不明确的薪资信息进行标记或处理。

图 4 薪资处理代码部分展示

此外,我们还注意到数据中存在一些缺失值和重复项。为了保证数据的完整性和独特性,我们采取了删除包含空值的行和去除重复项的措施。这一步骤确保了数据集的质量,避免了分析结果的偏差。

图 5 预处理后展示数据

总的来说,这一系列的数据预处理步骤为我们的分析提供了一个干净、整洁且信息丰富的数据集。通过这些仔细的处理,我们为揭示计算机类职位市场的深层次特征和趋势打下了坚实的基础。

4 数据分析及可视化

    本研究基于k-means的方法对计算机岗位进行聚类,旨在通过相关性比较强的特征,进行聚类操作。为了达到通过地点之间的相似度进行聚类,帮助招聘者可以根据地点之间和其他的信息特征之间的相关性进行选择公司。本章节对于招聘数据的相关字段,进行细致的探索性数据分析,旨在发现各特征之间的关联性,以及规律。

4.1 各地区的职位分布

根据数据,我们可以观察到一些地区对于特定职位的需求明显高于其他地区。例如,某些大城市(如上海、北京、深圳等)的职位数量远超其他地区,这可能反映了这些城市在相关行业的发展水平和对专业人才的需求更为旺盛。

图 6 不同地区的职位发布统计

这一现象不仅反映了这些城市在信息技术及相关行业的先进发展,也指示了这些地区对专业技术人才的高需求量。相较而言,其他地区的岗位需求量相对较小,这可能与其较低的经济发展水平、较为有限的产业结构以及企业总部分布的地理位置有关。

4.2 不同学历之间薪资分析

图 7 不同学历之间的薪资分析

小提琴图精确展示了薪资与学历要求之间的关系,揭示了随着学历要求升高,薪酬中位数及其波动范围均呈现上升趋势。尤其是对于较高学历要求的岗位,其薪资范围的上限显著超出了低学历岗位,反映出就业市场对高学历人才及其专业能力的高度认可。

4.3 不同公司类型职位需求分析

该图展示了不同类型公司在不同规模下的职位数量。从图中可以看出,不同类型的公司(如民营、已上市等)在各自的规模范围内有着不同的职位分布情况。某些公司类型在特定规模下职位数量较多,而在其他规模下则相对较少,这反映了不同类型公司的发展特点和人才需求。

具体来看,民营公司在中小规模范围内的职位数量占比较高,这可能是因为这类公司较多,且在发展过程中对多种职位有需求。而已上市公司在大规模范围内的职位数量占比较高,这可能与这类公司的规模和稳定性有关。

此外,不同规模的公司对不同类型的职位需求也有所不同。例如,大型公司可能更倾向于招聘具有专业技能和管理经验的高级人才,而中小型公司可能更多聚焦于具有操作性和执行力的职位。

总体而言,这一分析揭示了公司类型与规模对职位数量分布的影响,为求职者选择适合自己的公司类型和规模提供了参考。同时,这也为企业在制定招聘计划和人才战略时提供了有价值的市场趋势信息。

4.4 福利和招聘职位热度分析

图 8 福利词云图

通过招聘岗位所发布的福利进行词云分析,发现五险一金,定期体检等服务绝大多数的公司都是有的,这样说明计算机岗位在整个职业中都是待遇比较好的一个。

图 9 最受欢迎的职位情况

本研究通过对职位标题关键词的分析,展示了就业市场对特定技能和岗位的需求趋势。分析结果表明,职位如“工程师”、“开发”和“设计”等常见名称在市场中的需求量大,体现了这些基础职能在技术领域持续的高需求。

4.5 公司规模与薪资之间的分析

图 10 不同公司规模薪资水平

箱线图的分析显示了公司规模对薪酬分布影响的明显趋势。图示表明,随着公司规模的增大,即在员工人数为“5000-10000人”及“10000人以上”的大型企业中,薪资水平普遍较高,且薪酬区间广泛。这种现象可能源于大型企业较强的财务实力和对高端人才的需求,它们往往愿意为拥有高级技能或资深职位的员工支付更高的薪酬。

4.6 不同大类岗位薪资发布

图 11 不同大类岗位薪资发布

该分析通过探究市场上常见职位关键词与薪资水平之间的关系,揭示了不同技术领域和职位对应的薪酬差异。结果显示,职位如“深度学习”和“数据分析师”等,由于其所需的高专业技能和知识背景,薪资水平普遍较高。这一现象反映了这些高技术领域内对专业人才的大量需求以及快速的技术进步。

5 K-means聚类及实现过程

5.1 特征编码

在本研究中,我们采用了K-means聚类算法,对计算机领域的职位信息进行了细致的聚类分析,以揭示就业市场中的潜在模式和趋势。通过对数据进行预处理和标准化,我们确保了聚类分析的有效性和准确性。

首先,我们从数据预处理开始,选取了与职位特征和市场需求密切相关的几个关键字段,包括地区、工作年限要求、学历要求、公司名称、公司类型、公司规模和行业等。为了增强聚类分析的解释性和实用性,我们对这些分类数据进行了数值化处理,即通过计算每个类别的出现频率来转换为数值,这一步骤也被称为频数编码。这种处理不仅保留了原始数据的信息,而且为接下来的聚类分析提供了量化的基础。

图 12频数编码

5.2 相关性分析

在本研究中,我们对计算机领域职位信息进行了深入的相关性分析,以探索不同特征之间的相互联系和潜在影响。通过综合考虑地区、工作年限要求、学历要求、公司类型、公司规模、行业等关键特征,我们揭示了职位市场数据的复杂相互作用和内在联系。

首先,我们构建了一个相关性矩阵,这是一种有效的统计工具,用于量化数据集中各个变量之间的线性关系强度。在这个矩阵中,每个元素代表一对特征之间的相关系数,该系数的值介于-1到1之间。值接近1或-1表示强正相关或强负相关,而接近0的值则表示几乎没有线性关联。

通过绘制热图来直观展示这一相关性矩阵,我们发现了几个有趣的关联模式。例如,公司规模与职位薪资水平之间存在一定的正相关性,这可能表明大型公司倾向于提供更高的薪酬,反映了它们的财务实力和对高级技能人才的需求。同样,学历要求与薪资水平之间也呈现出正相关,这强调了高学历背景在就业市场上的价值,以及企业对高学历人才的薪酬倾向。

此外,我们还观察到地区与其他特征之间的关联。不同地区的职位需求和薪资分布可能受到当地经济发展水平、产业结构和人才供需状况的影响。例如,经济发达地区可能会有更高的薪资水平和更多的高技能职位需求。

通过这一相关性分析,我们不仅加深了对单个特征影响力的理解,更重要的是,揭示了特征之间的相互作用和复杂联系,有利于后续,我们通过这些特征进行聚类。

5.3 数据标准化及选择

接下来,对于连续变量“计算月薪”,我们采用了标准化处理,以消除不同变量之间量纲的影响,确保聚类分析中各特征被公平对待。这是通过将薪资数据转换为均值为0、标准差为1的分布来实现的,从而提高了聚类算法对数据差异性的敏感度。

图 13 标准化程序

在聚类分析中,连续变量如“计算月薪”通常需要进行标准化处理,以确保算法能够公平地考量各个特征,避免因为量纲不同而导致某些变量对结果的影响过大。标准化通过调整数据,使得其均值为0、标准差为1,从而消除了量纲的影响,提高了聚类算法对数据内在差异性的敏感度。

与此相对,分类变量如地区、学历等,其数值代表不同的类别,而非量的大小。这些变量的“距离”是非数值的概念,不能通过标准化来增强或减弱它们在聚类过程中的作用。对分类变量进行标准化处理不仅缺乏实际意义,而且可能扭曲原本的类别性质,使得聚类结果失去解释性。

5.4 聚类数量选择及结果分析

图 14 手肘法

在经过彻底的数据预处理之后,我们对数据集应用了K-means聚类算法,以挖掘其中潜在的模式和结构。为了精确确定聚类过程中理想的聚类数量K,我们综合运用了手肘法和轮廓系数两种评估方法,这两种方法从不同角度量化了聚类效果的优劣,为我们提供了决策的依据。

首先,通过手肘法的应用,我们绘制了不同K值下聚类惯性的图像。惯性,即数据点到其最近聚类中心的距离平方和,反映了聚类紧密度的一个指标。随着K值的增加,惯性总体呈下降趋势,但在某个点后下降速率显著减缓,形成了“手肘”点,这一点通常被认为是最佳的聚类数量。在我们的分析中,“手肘”点出现在K=4的位置,表明4个聚类可以较好地捕捉数据的内在结构,同时避免了过度拟合的问题。

图 15 轮廓系数

接着,轮廓系数的应用进一步验证了这一选择。轮廓系数通过计算每个数据点与其同类点的紧密度相对于其他聚类的分离度,为聚类的质量提供了量化度量。系数值范围从-1到1,值越高表示聚类效果越好。在K=4时,轮廓系数达到了相对较高的水平,这表明在该聚类数量下,数据点在各自聚类内部较为紧密,而与其他聚类的数据点较为分离,从而确认了K=4是一个合适的聚类数量选择。

综合手肘法和轮廓系数的分析结果,我们确定将聚类数量设置为4。这个决定不仅基于算法的量化指标,还兼顾了聚类结果的可解释性和实用性。在这个设置下,K-means算法能够有效地揭示数据集中的关键模式,为进一步的数据分析和解读提供了坚实的基础。

图 16 聚类结果展示

在本研究中,通过细致的预处理和使用K-means聚类算法,我们最终确定了最佳聚类数量为4。这意味着我们能够将计算机领域的职位信息划分为四个独特的聚类,每个聚类代表着就业市场上一组具有内在相似性的职位特征和市场需求。这种分类不仅揭示了就业市场中的潜在结构,还为理解不同职位之间的细微差异提供了有力的工具。

  • 市场细分:通过将职位划分为四个类别,我们能够更清晰地识别出就业市场中的不同细分领域。每个类别可能代表了一种特定的技能集合、行业领域或职位级别,从而为求职者和雇主提供了更精确的市场定位。
  • 需求分析:不同聚类的形成反映了市场对各类技能和经验的需求差异。这有助于求职者根据自身的背景和兴趣进行有针对性的职业规划。
  • 薪资结构洞察:通过聚类,我们还可以观察到不同类别职位的薪资分布情况,进而分析市场对不同技能和职位的价值评估。这对于求职者了解潜在薪资水平,以及雇主制定合理的薪酬策略都具有重要意义。
  • 策略制定:对于企业而言,理解不同聚类中职位的共同特点和需求,可以帮助他们更有效地定位目标人才群体、制定招聘策略,甚至是调整业务方向以适应市场变化。

总之,通过将计算机职位信息聚类为四个类别,本研究为职位市场的参与者提供了深入的洞察,帮助他们在复杂多变的就业市场中做出更加明智的决策。这种基于数据的聚类方法,不仅增强了我们对市场结构的理解,也为未来的市场趋势分析和人才管理提供了有力的分析工具。

6 总结

6.1 本研究的创新之处

本研究在分析计算机领域职位信息方面展现了多项创新之处,这些创新不仅体现在技术实施层面,也体现在对数据的深度解读和应用策略上。以下是本研究的几个主要创新点:

  • 综合数据获取与预处理方法:本研究通过Python爬虫技术,从在线招聘平台系统地收集了大量职位信息,并进行了一系列精细化的数据预处理工作。特别地,对分类数据的频数编码处理和连续变量的标准化处理,保证了数据的质量和分析的准确性,为后续的聚类分析奠定了坚实的基础。
  • 深入的探索性数据分析:通过探索性数据分析(EDA),本研究深入挖掘了职位信息数据的内在结构和模式,如通过小提琴图和箱线图揭示了学历要求、公司规模与薪资水平之间的关系。这些分析不仅为理解就业市场的动态提供了直观的视角,也为聚类分析的后续步骤提供了重要的前提和依据。
  • 基于K-means的多维度聚类分析:本研究采用K-means聚类算法,对预处理后的数据进行了多维度的聚类分析,这一点在就业市场研究中尤为创新。通过综合考虑地区、工作年限要求、学历要求等多个维度,本研究成功地将职位信息划分为四个具有明显区分性的类别,为市场细分提供了新的视角。
  • 聚类结果的深入解读与应用:在聚类分析之后,本研究对每个聚类进行了详细的解读,揭示了每个类别的特征和市场定位。这种基于聚类的市场细分方法为求职者提供了明确的指导,帮助他们根据自身的能力和偏好进行职业规划;同时,也为雇主在制定招聘策略时提供了有价值的参考。
  • 数据驱动的市场洞察与策略制定:本研究通过数据驱动的方法提供了关于计算机职位市场的深刻洞察,为求职者、雇主、教育机构和政策制定者等多方利益相关者提供了有力的决策支持。特别是对于雇主而言,本研究的聚类分析结果可以帮助他们更精准地定位人才需求,优化人力资源配置。

总体而言,本研究在方法论和应用层面上均展现出创新性,为计算机及相关领域的就业市场研究提供了新的思路和工具,具有较高的理论价值和实践意义。

6.2 本研究的不足之处

每文一语

不断学习中实现


http://www.ppmy.cn/ops/94718.html

相关文章

江协科技STM32学习笔记(第11章 RTC实时时钟)

第11章 RTC实时时钟 实时时钟本质上是一个定时器,但是这个定时器是专门用来产生年月日时分秒,这种日期和时间信息的。学会了RTC实时时钟,就可以在STM32内部拥有一个独立运行的钟表。想要记录或读取日期和时间,就可以通过操作RTC来…

使用 Python Scrapy 获取爬虫详细信息

使用 Python 的 Scrapy 框架获取爬虫详细信息是一个常见的任务。Scrapy 是一个功能强大的爬虫框架,适用于从网站提取数据。以下是一个简单的示例,展示如何使用 Scrapy 创建一个爬虫并获取爬取的数据。 1、问题背景 在使用 Python Scrapy 从网站提取数据…

怎么构建Agent?我写了一个教程(含代码)

有句非洲谚语很有名:一个人可以走得很快,一群人才能走得更远。 还有句话是:没有人能在所有领域都成为专家,我觉得这两句话说的是一个道理。团队合作,分工明确,大家齐心协力,各尽其职才能把事情…

我们如何在centos上部署批量管理工具ansible

1)我们先准备环境、设备 #我们准备一台服务机 (192.168.61.140) ​#然后准备几天客户机(192.168.61.141 192.168.61.142)这里我们准备两台2)然后我们在客服务机里面添加域名 vi /etc/hosts ​ #添加如下内容 192.…

unity游戏开发005:资源的导入

“君子之学,无时无处而不以立志为事” unity游戏开发 前言文章有误敬请斧正 不胜感恩!||unity游戏开发005 Unity资源导入指南一、资源的种类二、资源导入的基本步骤三、导入资源的设置四、导入资源的注意事项五、常见问题及解决方案六、总结 前言 昨天我…

立即下载!Windows11电竞游戏版:流畅不卡顿!

今日,系统之家小编给大家带来2024年最新的Windows11电竞游戏版系统,该版本系统基于微软官方最新 Windows 11 22H2 22621 专业版进行离线优化,无病毒残留,且解决之前版本存在的问题,系统性能更优秀,有助于提…

YAML在Spring Boot中的应用

1. 基本语法 YAML使用缩进来表示层级关系,通常使用空格进行缩进(推荐使用2个空格)。 基本语法示例: key: value nested:key: value list:- item1- item22. 配置文件命名 在Spring Boot中,YAML配置文件通常命名为 a…

linux运维练习题(三)

11、存储产品 网络附加存储 NFS,Samba,FTP 直接网络存储 ISCSI 存储区域网络 12、DNS的工作过程,当我们访问百度,敲下回车的一瞬间DNS做了什么操作? client --> 本机缓存 --> hosts文件 --> 本地DNS服务器…