当前位置: 首页 > news >正文

2.2logstash规则配置

工作流程

Logstash工作的三个阶段:

input数据输入端,以接收来自任何地方的源数据

* file:从文件中读取

* syslog:监听在514端口的系统日志信息, 并解析成RFC3164格式

* redis:从redis-server list中获取

* beat:接收来自Filebeat的事件

举例:从file文件输入:

Filter数据中转层, 主要进行格式处理, 数据类型转换、数据过滤、字段添加, 修改等, 常用的过滤器如下

* grok:通过正则解析和结构化任何文本Grok目前是logstash最好的方式对非结构化日志数据解析成结构化和可查询化,logstash内置了120个匹配模式, 满足大部分需求

* mutate:在事件字段执行一般的转换可以重命名、删除、替换和修改事件字段

* drop:完全丢弃事件, 如debug事件

* clone:复制事件, 可能添加或者删除字段

* geoip:添加有关IP地址地理位置信息

举例:过滤ip和时间戳

output数据输出端,是logstash工作的最后一个阶段, 负责将数据输出到指定位置, 兼容大多数应用, 常用的有:

* elasticsearch:发送事件数据到Elasticsearch, 便于查询, 分析, 绘图

* file:将事件数据写入到磁盘文件上

* mongodb:将事件数据发送至高性能NoSQL mongodb, 便于永久存储, 查询, 分析, 大数据分片

* redis:将数据发送至redis-server, 常用于中间层暂时缓存

* graphite:发送事件数据到graphitehttp://graphite.wikidot.com/

* statsd:发送事件数据到statsd

举例:

Logstash 输入输出规则:

* 输入规则:

  1. stdin ——> Logstash ——> stdout
  2. logfile ——> Logstash ——> stdout
  3. syslog ——> Logstash ——> stdout
  4. filebeat ——> Logstash ——> stdout
  5. kafka ——> Logstash(作为消费者) ——> stdout

* 输出规则:

  1. 输出到Elasticsearch
  2. 输出到kafka(作为生产者)

相关文章:

  • Memory设计基础--DRAM 内存架构
  • (面试经典问题之原子操作篇)原子操作CAS与锁实现
  • UE5 Computer Shader学习笔记
  • 达梦有没有类似oerr的功能
  • HTML5特殊字符
  • 《炎龙骑士团 1 邪神之封印》游戏信息
  • SpringMVC的执行流程
  • 【数据结构】哈希表
  • 索提诺比率(Sortino Ratio):更精准的风险调整收益指标(中英双语)
  • 飞腾腾锐D2000 + OpenHarmony 4.1release部署deepseek大模型
  • Vue3 + Vite + TS,使用 配置项目别名属性:resolve
  • asp.net core
  • 【数据挖掘在量化交易中的应用:特征发现与特征提取】
  • Vue进阶之AI智能助手项目(四)——ChatGPT的调用和开发
  • OA岗位信息表设计 | 字段唯一性校验
  • Java后端面试八股文:系统化学习指南,告别零散知识点
  • 开源基准测试模拟器:BlueROV2 水下机器人的控制
  • 你对WebAssembly的看法是什么?
  • ollama在linux上进行部署——离线安装说明
  • 2025年SCI一区智能优化算法:真菌生长优化算法(Fungal Growth Optimizer,FGO),提供MATLAB代码
  • 天问二号探测器顺利转入发射区
  • 视频丨歼-10CE首次实战大放异彩
  • 中国社联成立95周年,《中国社联期刊汇编》等研究丛书出版
  • 选址江南制造总局旧址,上海工业博物馆建设有新进展
  • 国家卫健委通报:吊销肖某医师执业证书,撤销董某莹四项证书
  • 日本前卫艺术先驱群展上海:当具体派相遇古树古宅