ELK日志采集系统搭建_v5.5.1

介绍

ELK是三个开源软件的缩写,分别表示:Elasticsearch , Logstash, Kibana , 它们都是开源软件。新增了一个FileBeat,它是一个轻量级的日志收集处理工具(Agent),Filebeat占用资源少,适合于在各个服务器上搜集日志后传输给Logstash,官方也推荐此工具。

Elasticsearch是个开源分布式搜索引擎,提供搜集、分析、存储数据三大功能。它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。

Logstash 主要是用来日志的搜集、分析、过滤日志的工具,支持大量的数据获取方式。一般工作方式为c/s架构,client端安装在需要收集日志的主机上,server端负责将收到的各节点日志进行过滤、修改等操作在一并发往elasticsearch上去。

Kibana 也是一个开源和免费的工具,Kibana可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以帮助汇总、分析和搜索重要数据日志。

Filebeat隶属于Beats。目前Beats包含四种工具:

  • Packetbeat(搜集网络流量数据)
  • Topbeat(搜集系统、进程和文件系统级别的 CPU 和内存使用情况等数据)
  • Filebeat(搜集文件数据)
  • Winlogbeat(搜集 Windows 事件日志数据)

配置要求

系统: Ubuntu 16.04

硬件: 4G以上内存

软件: JAVA版本1.8以上,NODEJS v8.3.0(用于安装head)

软件列表

版本(v5.5.1)

  1. Elasticsearch

  2. Kibana

  3. Logstash

  4. filebeats

安装步骤

安装JAVA 1.8

安装NODEJS 8.3.0

安装Elasticsearch

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
sudo mkdir /opt/elk
sudo mv elasticsearch-5.5.1.tar.gz /opt/elk
sudo tar -xvf elasticsearch-5.5.1.tar.gz
sudo cp elasticsearch-5.5.1/config/elasticsearch.yml elasticsearch-5.5.1/config/elasticsearch.yml.bk
sudo vi elasticsearch-5.5.1/config/elasticsearch.yml

# elasticsearch.yml
cluster.name: my-application
node.name: node-1
path.data: /data/elk/es/data
path.logs: /data/elk/es/data
network.host: 192.168.0.1
http.port: 9200
http.cors.enabled: true
http.cors.allow-origin: "*"

# 启动
./opt/elk/elasticsearch-5.5.1/bin/elasticsearch

# 测试
http://192.168.0.1:9200

安装elasticsearch-head插件

1
2
3
4
5
6
7
8
9
10
11
cd /opt/elk
sudo git clone https://github.com/mobz/elasticsearch-head.git
cd elasticsearch-head
cnpm install
cnpm install -g grunt

# 启动
grunt server

# 测试
http://192.168.0.1:9100

安装kibana

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
sudo cp kibana-5.5.1-linux-x86_64.tar.gz /opt/elk
sudo tar -xvf /opt/elk/kibana-5.5.1-linux-x86_64.tar.gz
sudo cp /opt/elk/kibana-5.5.1-linux-x86_64/config/kibana.yml /opt/elk/kibana-5.5.1-linux-x86_64/config/kibana.yml.bk
sudo vi /opt/elk/kibana-5.5.1-linux-x86_64/config/kibana.yml

# kibana.yml
server.port: 5601
server.host: "192.168.0.1"
elasticsearch.url: "http://192.168.0.1:9200"

# 启动
./opt/elk/kibana-5.5.1-linux-x86_64/bin/kibana serve

# 测试
http://192.168.0.1:5601

安装logstash

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
sudo cp logstash-5.5.1.tar.gz /opt/elk
sudo tar -xvf /opt/elk/logstash-5.5.1.tar.gz
sudo mkdir /opt/elk/logstash-5.5.1/conf.d
sudo vi /opt/logstash-5.5.1/conf.d/test.yml

# test.yml
input {
beats {
port => "5044"
}
}

filter {
grok {
match => {
"message" => "^(?m)%{GREEDYDATA:logdate} %{DATA:module} Thread-%{INT:thread_num} %{WORD:function} %{DATA:position} %{WORD:log_level} %{GREEDYDATA:log_message}$"
}
}
date {
match => ["logdate", "yyyy-MM-dd HH:mm:ss"]
target => "@timestamp"
add_tag => ["t_match"]
}
}

output {

elasticsearch {
hosts => "192.168.0.1:9200"
index => "logstash-%{+YYYY.MM.dd}"
}
stdout {
codec => rubydebug
}
}

# 启动
./opt/elk/logstash-5.5.1/bin/logstash -c /opt/elk/logstash-5.5.1/bin/logstash/test.yml

安装filebeats

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
sudo cp filebeat-5.5.1-linux-x86_64.tar.gz /opt/elk
sudo tar -xvf /opt/elk/filebeat-5.5.1-linux-x86_64.tar.gz
sudo vi /opt/elk/filebeat-5.5.1-linux-x86_64/test.yml

# test.yml
filebeat:
prospectors:
-
paths:
- /data/logs/test.log
input_type: log
document_type: TEST

multiline.pattern: "^2017"
multiline.negate: true
multiline.match: after

output:
logstash:
hosts: ["192.168.0.1:5044"]

# 启动
./opt/elk/filebeat-5.5.1-linux-x86_64/filebeats -e -c /opt/elk/filebeat-5.5.1-linux-x86_64/test.yml