基于python编写的服务器之间流量传输netflow_exporter

news/2024/11/14 21:38:31/

一、背景

通常企业会在多个机房部署IT系统,在大数据基础服务组件中会集群跨机房部署或是跨机房抽取数据的场景,在抽数任务时间节点没有错开的时候,经常会造成带宽打满的情况,跨机房的带宽费用比较昂贵,不考虑成本去扩跨机房的带宽是不现实的。为了跟踪各服务器之间的网络交互的情况,更好调配抽数任务,用python写了一个netflow_exporter,将服务之间的流量传输进行监控,并将采集的数据接入Prometheus,最后在Grafana上展示。

二、代码展示

#!/usr/bin/python3
#coding=utf-8
#采集监控服务器之间流量传输大小,接入Prometheus,在grafana展示
""""
author: zjh
date: 2023-12-20
description: Scrape netflow to promethues
"""
import os
import prometheus_client
from prometheus_client import Counter, Gauge
from prometheus_client.core import CollectorRegistry
from flask import Response, Flaskdef change_unit(unit):if "Mb" in unit:flow = float(unit.strip("Mb")) * 1024return flowelif "Kb" in unit:flow = float(unit.strip("Kb"))return flowelif "b" in unit:flow = float(unit.strip("b")) / 1024return flowdef get_flow():#iftop参数:-t 使用不带ncurses的文本界面,-P显示主机以及端口信息,-N只显示连接端口号,不显示端口对应的服务名称,-n 将输出的主机信息都通过IP显示,不进行DNS解析,-s num  num秒后打印一次文本输出然后退出#1.服务器上运行result = os.popen("iftop -t  -N -n -s 2 2>/dev/null |grep -A 1 -E '^   [0-9]'").read()#2.本地测试数据#result = open("basedatanoport.txt").read()#以换行符进行分割iftop_list = result.split("\n")#print(iftop_list)count = int(len(iftop_list))#定义字典 存放主机信息和进出流量flow_dict = {}for i in range(int(count/2)):flow_msg = ""#获取发送的ip地址(本地ip地址),数据偶数位为本地发送流量信息location_li_s = iftop_list[i*2]send_flow_lists = location_li_s.split(" ")#去空元素while '' in send_flow_lists:send_flow_lists.remove('')localhostip = send_flow_lists[1]send_flow = send_flow_lists[3]send_flow_float = change_unit(send_flow)#获取接收的流量location_li_r = iftop_list[i*2+1]rec_flow_lists = location_li_r.split(" ")while '' in rec_flow_lists:rec_flow_lists.remove('')remote_host_ip = rec_flow_lists[0]rec_flow = rec_flow_lists[3]rec_flow_float = change_unit(rec_flow)local_remote_host=localhostip+str(' <==> ')+remote_host_ipflow_msg = str(float('%2.f' % send_flow_float)) + "|" + str(float('%.2f' % rec_flow_float))flow_dict[local_remote_host] = flow_msgsend_rows = []rec_rows = []for key in flow_dict:send_row_tmp_dict = {}rec_row_tmp_dict = {}flow_li = flow_dict[key].split("|")#flow_li[0]为发送流量,flow_li[1]为接收流量,单位是Kb#print(key + "|" + flow_li[0]  + "|" +  flow_li[1])send_row_tmp_dict['remoteip'] = key.replace('<','>')send_row_tmp_dict['value'] = flow_li[0]rec_row_tmp_dict['remoteip'] = key.replace('>','<')rec_row_tmp_dict['value'] = flow_li[1]send_rows.append(send_row_tmp_dict)rec_rows.append(rec_row_tmp_dict)return send_rows,rec_rowsapp = Flask(__name__)REGISTRY = CollectorRegistry(auto_describe=False)
count = Counter('count','count',registry=REGISTRY
)
networksSend = Gauge(name="send_flow",documentation="Send_Flow_Kb",namespace="netflow",labelnames=["remoteip"],registry=REGISTRY
)
networkReceive = Gauge(name="receive_flow",documentation="Receive_Flow_Kb",namespace="netflow",labelnames=["remoteip"],registry=REGISTRY
)c = Gauge('my_requests_total', 'HTTP Failures', ['method', 'endpoint'],registry=REGISTRY)@app.route('/metrics')
def r_value():#获取流量信息send_rows,rec_rows = get_flow()for row_s in send_rows:networksSend.labels(row_s['remoteip']).set(row_s['value'])for row_r in rec_rows:networkReceive.labels(row_r['remoteip']).set(row_r['value'])c.labels('test', '1').inc()c.labels('post', '/submit').inc()return Response(prometheus_client.generate_latest(REGISTRY),mimetype="text/plain")@app.route('/')
def index():return "<html>" \"<head><title>NetWorkTraffic Exporter</title></head>" \"<body>" \"<h1>NetWorkTraffic Exporter</h1>" \"<p><a href=" + ('/metrics') + ">Metrics</a></p></body>" \"</html>"if __name__ == '__main__':#1.本地测试app.run(host='localhost',port=9101,debug=True)#2.服务器上部署input_list=sys.argv[1:]app.run(host=input_list[0],port=9101,debug=False)

三、在服务器上部署的前提条件:

1. linux 安装iftop命令

yum install iftop -y

2.安装python依赖

pip3 install -r requirement.txt
[root@test]:/opt/zjh/netflowmonitor
#cat requirement.txt 
flask
prometheus_client

3.启动,启动脚本 后面加本机IP

nohup /usr/bin/python3 netflowmonitor.py 192.168.10.11 &

在promethues上增加配置

  - job_name: 'netflow'scrape_timeout: 10smetrics_path: '/metrics'static_configs:- targets: ['192.168.10.11:9101','192.168.10.12:9101']labels:job: netflow proj: flow
# prometuhes重新加载配置
curl -X POST http://localhost:9090/-/reload

四、Grafana上增加dashboard

1.设置变量

在这里插入图片描述

2.修改Y坐标的单位为kibibytes(1kibibytes = 1024b),kilobytes(1kilobytes = 1000b)

我这里选择kibibytes
在这里插入图片描述

3.增加发送和接收的面板

在这里插入图片描述

流量走向监控基本思想和实现代码介绍到这里,后面还会继续优化。欢迎评论交流,转发和点赞,收藏!
同时也介绍下个人公众号:运维仙人,期待您的关注。
在这里插入图片描述


http://www.ppmy.cn/news/1281691.html

相关文章

【Hadoop】ZooKeeper数据模型Znode

ZooKeeper 数据模型ZnodeZooKeeper 中的时间ZooKeeper 节点属性 ZooKeeper 数据模型Znode 前面提过&#xff0c;Zookeeper相当于文件系统通知机制。既然是文件系统&#xff0c;那就涉及数据模型。 ZooKeeper 的数据模型在结构上和Unix标准文件系统非常相似&#xff0c;都是采用…

C++书籍推荐(持续更新...)

目录 新手C Primer Plus 初级数据结构算法设计与分析 中级C Core GuidelinesEffective CMore Effective C 高级C并发编程实战C Templates 专家C新经典 设计模式 大师计算之魂 神级传说 新手 完全适合小白的书籍 C Primer Plus 《C Primer Plus》这本书是一本深入浅出的C/C编程指…

<script setup> 的作用

一、使用<script setup> 之后&#xff0c;就不需要手动写以下代码&#xff0c;只要写逻辑代码 未加setup&#xff0c;vite 工程要加上下面代码 *export default{ * setup(){ * //只要写逻辑代码 * return{***} * } * } 加了setup &#xff0c;export default 、…

助力打造清洁环境,基于YOLOv7开发构建公共场景下垃圾堆放垃圾桶溢出检测识别系统

公共社区环境生活垃圾基本上是我们每个人每天几乎都无法避免的一个问题&#xff0c;公共环境下垃圾投放点都会有固定的值班时间&#xff0c;但是考虑到实际扔垃圾的无规律性&#xff0c;往往会出现在无人值守的时段内垃圾堆放垃圾桶溢出等问题&#xff0c;有些容易扩散的垃圾比…

Python 时间处理与数据分析利器:深入剖析 Arrow 模块的优势

写在开头 时间在数据分析中扮演着至关重要的角色&#xff0c;而选择适当的时间处理模块对于提高代码效率和可读性至关重要。本文将深入介绍 Arrow 模块&#xff0c;探讨其相对于其他时间处理模块的优势&#xff0c;以及在数据分析中的实际应用。 1. Arrow 模块概览 Arrow 模…

鸿蒙的基本项目_tabbar,首页,购物车,我的

以上效果&#xff0c;由四个ets文件实现&#xff0c;分别是容器页面。首页&#xff0c;购物车&#xff0c;我的。 页面里的数据&#xff0c;我是用json-server进行模拟的数据。 一、容器页面 使用组件Tabs和Tabcontent结合。 import Home from "./Home"; import …

5.2 显示窗口的内容(二)

三,显示器几何形状管理 只有显示管理器被允许更改显示器的几何形状。窗口管理器也是显示管理器。 3.1 当显示器显示其自身内容时 当显示器显示其自身内容时,适用以下属性: 显示属性描述SCREEN_PROPERTY_PROTECTION_ENABLE表示显示目标窗口是否需要内容保护。只要显示器上…

CentOS系统环境搭建(二十六)——使用nginx在无域名情况下使用免费证书设置https

centos系统环境搭建专栏&#x1f517;点击跳转 文章目录 使用nginx在无域名情况下使用免费证书设置https1.获取SSL证书1.1 生成SSL密钥1.2 生成SSL证书1.3 重命名密钥文件 2.nginx配置https2.1 放证书2.2 修改nginx.conf文件2.2.1 将80端口重定向到4432.2.2 端口443配置ssl证书…