Elasticsearch去分析目标服务器的日志,需要在目标服务器上面安装Elasticsearch 软件吗

server/2025/2/10 9:39:08/

Elasticsearch 本身并不直接收集目标服务器的日志,它主要用于存储、搜索和分析数据。要收集目标服务器的日志,通常会借助其他工具,并且一般不需要在目标服务器上安装 Elasticsearch 软件,常见的日志收集方案:
Filebeat(收集日志) + Logstash(传输日志到ES) + Elasticsearch(分析日志) + Kibana(展示分析结果,且可视化)
工作原理

Filebeat:

这是一个轻量级的日志收集器,用于在目标服务器上收集日志文件。它会监控指定的日志文件或目录,当有新的日志数据产生时,Filebeat 会将这些数据收集起来,并发送到 Logstash 或直接发送到 Elasticsearch。

Filebeat 本身并没有固定必须使用的端口

Logstash:(不过也有一些公司会用kafka)

作为数据处理和传输的中间层,Logstash 接收来自 Filebeat 的数据,对其进行过滤、转换和格式化等操作,然后将处理后的数据发送到 Elasticsearch。
当使用 Filebeat 等 Beats 工具向 Logstash 发送数据时,Logstash 通常监听 5044 端口。

Elasticsearch:

负责存储和索引从 Logstash 或 Filebeat 接收到的日志数据,以便后续的搜索和分析。
Elasticsearch对外的端口是9200,如果你有一个ES群组,那么这个群组之间通过9300端口互相连接。

Kibana:

提供可视化界面,让用户可以方便地查询、分析和展示存储在 Elasticsearch 中的日志数据。
端口一般是5601,它的下游一般就是Elasticsearch,Elasticsearch把数据传给kibana来展示。

  • 注:Kafka 跟Logstash 同样具有数据传输和缓冲的功能,Kafka 会将数据传输到 Elasticsearch 进行存储和分析。然后Kibana用于展示。kafka端口一般是9092

filebeat 配置文件如下,这里采用的是kafka来传输数据

filebeat.inputs:
- type: logenabled: true#  根据日志文件编码格式 gbk  utf-8encoding: utf-8# 对于线上已有大量日志,第一次部署filebeat。tail_files: true只会收集filebeat运行后的动态增加的日志,不会收集运行前的日志.# 等运行一段时间后,再修改tail_files: false,以防因为filebeat不运行时日志的丢失tail_files: truefields:hostName: 1.1.1.1  # 就是filebeat所在的服务器ippaths:# 你想分析哪些日志,就是在这里定义- /vdb/zhuaqian/tomcat9_90/logs/logback/*/*.log- /vdb/zhuaqian/jarDir/logs/FindBestWay/*/*.logmultiline.pattern: '^20[1-9]{2}'multiline.negate: truemultiline.match: afterfilebeat.config.modules:path: ${path.config}/modules.d/*.ymlreload.enabled: falseoutput.kafka:
#这里写的是kafka的IP和端口hosts: ["2.2.2.2:9092","3.3.3.3:9092","4.4.4.4:9092"]topic: java-simTrade-logpartition.round_robin:reachable_only: falserequired_acks: 1#  一行消息大于 8M 就会被丢弃message.max.bytes: 8192max_procs: 1
processors:
- add_host_metadata:netinfo.enabled: true
- drop_fields:fields: ["host.id","host.containerized","host.architecture","host.os","prospector","input","beat","log","offset","@metadata"]
compression: gziplogging.level: info
logging.to_files: true
logging.files:path: /vdb/filebeat_logname: filebeat.logpermissions: 0644keepfiles: 2

http://www.ppmy.cn/server/166458.html

相关文章

ES6 Map 数据结构是用总结

1. Map 基本概念 Map 是 ES6 提供的新的数据结构,它类似于对象,但是"键"的范围不限于字符串,各种类型的值(包括对象)都可以当作键。Map 也可以跟踪键值对的原始插入顺序。 1.1 基本用法 // 创建一个空Map…

加速汽车软件升级——堆栈刷写技术的应用与挑战

一、背景和挑战 | 背景: 当前汽车市场竞争激烈,多品牌并存,新车发布速度加快,价格逐渐降低,功能日益多样化。随着车辆功能的不断提升与优化,ECU(电子控制单元)的代码量也随之增加&…

22.2、Apache安全分析与增强

目录 Apache Web安全分析与增强 - Apache Web概述Apache Web安全分析与增强 - Apache Web安全威胁Apache Web安全机制Apache Web安全增强 Apache Web安全分析与增强 - Apache Web概述 阿帕奇是一个用于搭建WEB服务器的应用程序,它是开源的,它的配置文件…

【Flink快速入门-8.Flink Flink 架构介绍】

Flink 架构介绍 实验介绍 经过前⾯的⼏个实验,相信⼤家已经对 Flink 有了⼀定的认识。但是在学习⼀个技术框架 的时候,除了 API ,我们还必须了解其架构体系,这样我们才会对它有一个更加全面的认识。所以本节实验我们重点来学习 …

深度学习 OpenAI的DALL-E等模型可以根据用户输入的文字描述生成图像

要使用类似 OpenAI 的 DALL - E 模型根据文字描述生成图像,你可以借助 OpenAI 的 API 来实现。以下是详细步骤和代码示例: 1. 准备工作 1.1 安装必要的库 首先,你需要安装 openai 库,可使用以下命令进行安装: pip install openai1.2 获取 API 密钥 你需要在 OpenAI 平…

PAT甲级1053、 Path of Equal Weight

题目 Given a non-empty tree with root R, and with weight Wi​ assigned to each tree node Ti​. The weight of a path from R to L is defined to be the sum of the weights of all the nodes along the path from R to any leaf node L. Now given any weighted tree…

智慧停车场解决方案(文末联系,领取整套资料,可做论文)

一、方案概述 本智慧停车场解决方案旨在通过硬件设备与软件系统的深度整合,实现停车场的智能化管理与服务,提升车主的停车体验,优化停车场运营效率。 二、硬件架构 硬件设备说明: 车牌识别摄像机:安装在停车场入口和…

【Pytorch函数】PyTorch随机数生成全解析 | torch.rand()家族函数使用指南

🌟 PyTorch随机数生成全解析 | torch.rand()家族函数使用指南 🌟 📌 一、核心函数参数详解 PyTorch提供多种随机数生成函数(注意:无直接torch.random()函数),以下是常用函数及参数:…