前言
由于实验室需要搭建一个类似于后台运维的平台,其中涉及到了日志的收集这一项。需要的是从不同的服务器中收集到有用的信息,并统一进行处理展示。这里的日志收集我主要是用Logstash来进行的,下面简单介绍一下logstach的搭建与使用。
一、平台的搭建
先来了解一下Logstash是啥:Logstash是一个开源数据搜集引擎,支持实时数据管道功能。Logstash可以动态整合分散的数据源,根据你的选择对数据标准化。根据不同的高级下游分析和可视化用例对数据进行梳理。尽管Logstash的早期目标是搜集日志,现在它的功能已完全不只于此。任何事件类型都可以加入分析,通过输入、过滤器和输出插件进行转换。与此同时,还提供了很多原生编解码工具简化消息处理。Logstash通过海量数据处理和多种多样的数据格式支持延伸了你对数据的洞察力。
那么就来简单的搭建一下吧
logstash的搭建非常的简单,可以从官网【https://www.elastic.co/cn/products/logstash】上下载logstash的安装包。由于我使用的是服务器,就直接用wget命令了。注意,logstash安装的前提是确保已经安装jdk1.8。
1 | wget https://artifacts.elastic.co/downloads/logstash/logstash-6.4.2.tar.gz |
解压到文件夹
1 | tar -zxvf logstash-6.4.2.tar.gz |
下面可以根据相应的需求进入文件夹的bin目录下进行配置。
二、对配置文件的配置
1.一个demo
首先我们要先了解,Logstash 通过管道进行运作,管道有两个必需的元素,输入和输出,还有一个可选的元素,过滤器。输入插件从数据源获取数据,过滤器插件根据用户指定的数据格式修改数据,输出插件则将数据写入到目的地。
比如我们在bin目录下直接输入,将会启动logstash
1 | ./logstash -e 'input { stdin { } } output { stdout {} }' |
启动logstash,输入hello world~之后会有如下结果:
1 | [root@HadoopSlave1 bin]# ./logstash -e 'input { stdin { } } output { stdout {} }' |
输入的hello world~经过管道和过滤器之后变成了这一段
1 | { |
在此基础上更进一步
2.简单的数据监控
比如要对某个文件进行监控,当文件有变动时就做出相应的反应,这时我们需要在配置文件中配置下面一段代码
1 | input{ |
接着,启动logstash
1 | nohup ./logstash -f file.conf & |
对这段配置代码的解释是这样子的,我需要监控的文件位置位于 /LabDataUpdate/test.log 下,将其读入到logstash的管道中,当其中的日志文件发生变化时,就会将变化的日志输出到 /collection.txt 下。注意,logstash仅仅只会将变化的日志输入到文件下,而不是全部日志。
当然,上述的简单监控仅仅局限于同一台服务器的日志收集,那么我们想要收集不同服务器中的日志到同一台服务器下时该怎么做?
3.用tcp传输
比如说我有两台服务器,其中主服务器也就是存放所有收集来的日志服务器。主服务器称为111,另外一台服务器称为112,我要将112的日志输出到111中。
先对112进行配置
1 | 这里是输入 |
再对111进行配置,同样的,111服务器上也需要安装logstash,两边同时都要启动,从而进行日志的收集监控。111中的配置如下。
1 | input{ |
这样将会收集112服务器的指定目录的日志到111服务器的output目录下。要注意一点的是,两个配置文件的端口号要统一,否则无法完成收集任务。也能配置多个服务器,只要端口相同,都能收集到111服务器的相应文件下。
3.监控数据库
logstash还能够对数据库表进行监控,当表的数据发生变化时,能对数据库进行检测。也能按照时间间隔对数据库进行一次检测。我这边选择的策略是按照时间间隔来监控数据库其中四张表。
1 | input{ |
每个字段的解释都在代码中给出。
这样和之前的代码相结合,就能实现logstash最简单的日志监控功能。
三、总结
主要介绍和实现了logstash的简单搭建与监控功能。其一,监控同一台服务器下的日志文件。其二,监控不同服务器下的日志文件,实现日志的收集功能。其三,监控数据库。
本文中还没有介绍过滤器的功能,有时间再后续补上。