作者选择了Internet Archive作为Write for DOnations计划的一部分进行捐赠。
介绍
Elastic Stack(以前称为ELK Stack )是由Elastic生成的开源软件集合,允许您以任何格式搜索,分析和可视化从任何源生成的日志,这种做法称为集中式日志记录 。 在尝试识别服务器或应用程序的问题时,集中日志记录非常有用,因为它允许您在一个位置搜索所有日志。 它也很有用,因为它允许您通过在特定时间范围内关联其日志来识别跨多个服务器的问题。
Elastic Stack有四个主要组件:
- Elasticsearch :一个分布式RESTful搜索引擎,用于存储所有收集的数据。
- Logstash :Elastic Stack的数据处理组件,用于将传入数据发送到Elasticsearch。
- Kibana :用于搜索和可视化日志的Web界面。
- Beats :轻量级,单一用途的数据发布者,可以将数百或数千台计算机中的数据发送到Logstash或Elasticsearch。
在本教程中,您将在Ubuntu 18.04服务器上安装Elastic Stack 。 您将学习如何安装Elastic Stack的所有组件 - 包括Filebeat ,用于转发和集中日志和文件的Beat - 并配置它们以收集和可视化系统日志。 此外,由于Kibana通常只在localhost
上可用,我们将使用Nginx代理它,以便可以通过Web浏览器访问它。 我们将在单个服务器上安装所有这些组件,我们将其称为Elastic Stack服务器 。
注意 :安装Elastic Stack时,必须在整个中使用相同的版本。 在本教程中,我们将安装整个的最新版本,在撰写本文时,它们是Elasticsearch 6.4.3,Kibana 6.4.3,Logstash 6.4.3和Filebeat 6.4.3。
先决条件
要完成本教程,您需要以下内容:
按照Ubuntu 18.04的初始服务器设置指南设置Ubuntu 18.04服务器,包括具有sudo权限的非root用户和使用
ufw
配置的防火墙。 Elastic Stack服务器所需的CPU,RAM和存储量取决于您要收集的日志量。 在本教程中,我们将使用具有以下Elastic Stack服务器规范的VPS:- 操作系统:Ubuntu 18.04
- 内存:4GB
- CPU:2
Java 8 - Elasticsearch和Logstash所需 - 安装在您的服务器上。 请注意,不支持Java 9。 要安装它,请按照我们的指南中的“安装Oracle JDK”部分,了解如何在Ubuntu 18.04上安装Java 8。
Nginx安装在您的服务器上,我们将在本指南后面配置为Kibana的反向代理。 按照我们的指南如何在Ubuntu 18.04上安装Nginx进行设置。
此外,由于Elastic Stack用于访问您不希望未经授权的用户访问的有关您的服务器的有价值信息,因此通过安装TLS / SSL证书来保证服务器安全非常重要。 这是可选的,但强烈鼓励 。
但是,因为您将在本指南的过程中最终对Nginx服务器块进行更改,所以在本教程的第二步结束时完成Ubuntu 18.04上的Let's Encrypt指南可能更有意义。 考虑到这一点,如果您计划在服务器上配置Let's Encrypt,在执行此操作之前,您将需要以下内容:
- 完全限定的域名(FQDN)。 本教程将始终使用
example.com
。 您可以在Namecheap上购买域名,在Freenom上免费获取一个域名,或使用您选择的域名注册商。 为您的服务器设置了以下两个DNS记录。 您可以按照的介绍了解有关如何添加它们的详细信息。
- 带有
example.com
的A记录,指向服务器的公共IP地址。 - 带有
www. example.com
的A记录www. example.com
www. example.com
指向您服务器的公共IP地址。
- 带有
第1步 - 安装和配置Elasticsearch
Ubuntu的默认包存储库中不提供Elastic Stack组件。 但是,在添加Elastic的包源列表后,它们可以与APT一起安装。
所有Elastic Stack的软件包都使用Elasticsearch签名密钥进行签名,以保护您的系统免受软件包欺骗。 使用密钥进行身份验证的软件包将被包管理器视为信任。 在此步骤中,您将导入Elasticsearch公共GPG密钥并添加Elastic包源列表以安装Elasticsearch。
首先,运行以下命令将Elasticsearch公共GPG密钥导入APT:
wget -qO - https://artifacts.elastic.co/GPG-KEY-elasticsearch | sudo apt-key add -
接下来,将Elastic源列表添加到sources.list.d
目录,其中APT将查找新的源:
echo "deb https://artifacts.elastic.co/packages/6.x/apt stable main" | sudo tee -a /etc/apt/sources.list.d/elastic-6.x.list
接下来,更新您的包列表,以便APT读取新的Elastic源:
sudo apt update
然后使用以下命令安装Elasticsearch:
sudo apt install elasticsearch
完成Elasticsearch安装后,使用首选文本编辑器编辑Elasticsearch的主配置文件elasticsearch.yml
。 在这里,我们将使用nano
:
sudo nano /etc/elasticsearch/elasticsearch.yml
注意: Elasticsearch的配置文件采用YAML格式,这意味着缩进非常重要! 编辑此文件时,请确保不添加任何额外的空格。
Elasticsearch监听来自端口9200
上各处的流量。 您需要限制对Elasticsearch实例的外部访问,以防止外人通过REST API读取您的数据或关闭您的Elasticsearch集群。 找到指定network.host
的行,取消注释,并将其值替换为localhost
,如下所示:
. . .
network.host: localhost
. . .
按CTRL+X
保存并关闭elasticsearch.yml
,接着是Y
,然后如果你使用的是nano
,则ENTER
。 然后,使用systemctl
启动Elasticsearch服务:
sudo systemctl start elasticsearch
接下来,运行以下命令以使Elasticsearch在每次服务器启动时启动:
sudo systemctl enable elasticsearch
您可以通过发送HTTP请求来测试您的Elasticsearch服务是否正在运行:
curl -X GET "localhost:9200"
您将看到一个响应,显示有关本地节点的一些基本信息,类似于:
Output{
"name" : "ZlJ0k2h",
"cluster_name" : "elasticsearch",
"cluster_uuid" : "beJf9oPSTbecP7_i8pRVCw",
"version" : {
"number" : "6.4.2",
"build_flavor" : "default",
"build_type" : "deb",
"build_hash" : "04711c2",
"build_date" : "2018-09-26T13:34:09.098244Z",
"build_snapshot" : false,
"lucene_version" : "7.4.0",
"minimum_wire_compatibility_version" : "5.6.0",
"minimum_index_compatibility_version" : "5.0.0"
},
"tagline" : "You Know, for Search"
}
现在Elasticsearch已经启动并运行,让我们安装Kibana,它是Elastic Stack的下一个组件。
第2步 - 安装和配置Kibana仪表板
根据官方文档 ,您应该在安装Elasticsearch之后安装Kibana。 按此顺序安装可确保每个产品所依赖的组件正确到位。
因为您已经在上一步中添加了Elastic包源,所以您可以使用apt
安装Elastic Stack的其余组件:
sudo apt install kibana
然后启用并启动Kibana服务:
sudo systemctl enable kibana
sudo systemctl start kibana
由于Kibana配置为仅监听localhost
,因此我们必须设置反向代理以允许对其进行外部访问。 我们将使用Nginx来实现此目的,它应该已经安装在您的服务器上。
首先,使用openssl
命令创建一个管理Kibana用户,您将使用该用户访问Kibana Web界面。 例如,我们将此帐户kibanaadmin
,但为了确保更高的安全性,我们建议您为用户选择难以猜测的非标准名称。
以下命令将创建管理Kibana用户和密码,并将它们存储在htpasswd.users
文件中。 您将配置Nginx以要求此用户名和密码并立即读取此文件:
echo "kibanaadmin:`openssl passwd -apr1`" | sudo tee -a /etc/nginx/htpasswd.users
在提示符下输入并确认密码。 记住或记下此登录信息,因为您需要它来访问Kibana Web界面。
接下来,我们将创建一个Nginx服务器块文件。 例如,我们将此文件称为example.com
,尽管您可能会发现为您提供更具描述性的名称会很有帮助。 例如,如果您为此服务器设置了FQDN和DNS记录,则可以在FQDN之后命名此文件:
sudo nano /etc/nginx/sites-available/example.com
将以下代码块添加到文件中,确保更新example.com
以匹配服务器的FQDN或公共IP地址。 此代码将Nginx配置为将服务器的HTTP流量定向到Kibana应用程序,该应用程序正在监听localhost:5601
。 此外,它配置Nginx以读取htpasswd.users
文件并需要基本身份验证。
请注意,如果您遵循先决条件Nginx教程直到最后,您可能已经创建了此文件并使用一些内容填充它。 在这种情况下,请在添加以下内容之前删除文件中的所有现有内容:
server {
listen 80;
server_name example.com;
auth_basic "Restricted Access";
auth_basic_user_file /etc/nginx/htpasswd.users;
location / {
proxy_pass http://localhost:5601;
proxy_http_version 1.1;
proxy_set_header Upgrade $http_upgrade;
proxy_set_header Connection 'upgrade';
proxy_set_header Host $host;
proxy_cache_bypass $http_upgrade;
}
}
完成后,保存并关闭文件。
接下来,通过创建指向sites-enabled
目录的符号链接来启用新配置。 如果您已在Nginx先决条件中创建了具有相同名称的服务器块文件,则无需运行此命令:
sudo ln -s /etc/nginx/sites-available/example.com /etc/nginx/sites-enabled/example.com
然后检查配置是否存在语法错误:
sudo nginx -t
如果输出中报告了任何错误,请返回并仔细检查您在配置文件中放置的内容是否已正确添加。 一旦看到输出中的syntax is ok
,请继续并重新启动Nginx服务:
sudo systemctl restart nginx
如果您按照初始服务器设置指南进行操作,则应启用UFW防火墙。 要允许连接到Nginx,我们可以通过键入以下内容来调整规则:
sudo ufw allow 'Nginx Full'
注意:如果您遵循先决条件Nginx教程,则可能已创建了允许Nginx HTTP
配置文件通过防火墙的UFW规则。 由于Nginx Full
配置文件允许通过防火墙的HTTP和HTTPS流量,因此您可以安全地删除在先决条件教程中创建的规则。 使用以下命令执行此操作:
sudo ufw delete allow 'Nginx HTTP'
现在可以通过您的FQDN或Elastic Stack服务器的公共IP地址访问Kibana。 您可以通过导航到以下地址并在出现提示时输入登录凭据来检查Kibana服务器的状态页面:
http://your_server_ip/status
此状态页面显示有关服务器资源使用情况的信息,并列出已安装的插件。
注意 :如前提条件部分所述,建议您在服务器上启用SSL / TLS。 您现在可以按照本教程在Ubuntu 18.04上获取Nginx的免费SSL证书。 获得SSL / TLS证书后,您可以返回并完成本教程。
现在配置了Kibana仪表板,让我们安装下一个组件:Logstash。
第3步 - 安装和配置Logstash
虽然Beats可以将数据直接发送到Elasticsearch数据库,但我们建议使用Logstash来处理数据。 这将允许您从不同的源收集数据,将其转换为通用格式,并将其导出到另一个数据库。
使用以下命令安装Logstash:
sudo apt install logstash
安装Logstash后,您可以继续进行配置。 Logstash的配置文件以JSON格式编写,并驻留在/etc/logstash/conf.d
目录中。 在配置它时,将Logstash视为一个管道,将一端接收数据,以某种方式处理它,然后将其发送到目的地(在这种情况下,目标是Elasticsearch)是有帮助的。 Logstash管道有两个必需元素, input
和output
,以及一个可选元素filter
。 输入插件使用来自源的数据,过滤器插件处理数据,输出插件将数据写入目标。
创建一个名为02-beats-input.conf
的配置文件,您将在其中设置Filebeat输入:
sudo nano /etc/logstash/conf.d/02-beats-input.conf
插入以下input
配置。 这指定将在TCP端口5044
上监听的beats
输入。
input {
beats {
port => 5044
}
}
保存并关闭文件。 接下来,创建一个名为10-syslog-filter.conf
的配置文件,我们将在其中添加系统日志过滤器,也称为syslogs :
sudo nano /etc/logstash/conf.d/10-syslog-filter.conf
插入以下syslog过滤器配置。 此示例系统日志配置取自官方Elastic文档 。 此过滤器用于解析传入的系统日志,使其由预定义的Kibana仪表板构建和使用:
filter {
if [fileset][module] == "system" {
if [fileset][name] == "auth" {
grok {
match => { "message" => ["%{SYSLOGTIMESTAMP:[system][auth][timestamp]} %{SYSLOGHOST:[system][auth][hostname]} sshd(?:\[%{POSINT:[system][auth][pid]}\])?: %{DATA:[system][auth][ssh][event]} %{DATA:[system][auth][ssh][method]} for (invalid user )?%{DATA:[system][auth][user]} from %{IPORHOST:[system][auth][ssh][ip]} port %{NUMBER:[system][auth][ssh][port]} ssh2(: %{GREEDYDATA:[system][auth][ssh][signature]})?",
"%{SYSLOGTIMESTAMP:[system][auth][timestamp]} %{SYSLOGHOST:[system][auth][hostname]} sshd(?:\[%{POSINT:[system][auth][pid]}\])?: %{DATA:[system][auth][ssh][event]} user %{DATA:[system][auth][user]} from %{IPORHOST:[system][auth][ssh][ip]}",
"%{SYSLOGTIMESTAMP:[system][auth][timestamp]} %{SYSLOGHOST:[system][auth][hostname]} sshd(?:\[%{POSINT:[system][auth][pid]}\])?: Did not receive identification string from %{IPORHOST:[system][auth][ssh][dropped_ip]}",
"%{SYSLOGTIMESTAMP:[system][auth][timestamp]} %{SYSLOGHOST:[system][auth][hostname]} sudo(?:\[%{POSINT:[system][auth][pid]}\])?: \s*%{DATA:[system][auth][user]} :( %{DATA:[system][auth][sudo][error]} ;)? TTY=%{DATA:[system][auth][sudo][tty]} ; PWD=%{DATA:[system][auth][sudo][pwd]} ; USER=%{DATA:[system][auth][sudo][user]} ; COMMAND=%{GREEDYDATA:[system][auth][sudo][command]}",
"%{SYSLOGTIMESTAMP:[system][auth][timestamp]} %{SYSLOGHOST:[system][auth][hostname]} groupadd(?:\[%{POSINT:[system][auth][pid]}\])?: new group: name=%{DATA:system.auth.groupadd.name}, GID=%{NUMBER:system.auth.groupadd.gid}",
"%{SYSLOGTIMESTAMP:[system][auth][timestamp]} %{SYSLOGHOST:[system][auth][hostname]} useradd(?:\[%{POSINT:[system][auth][pid]}\])?: new user: name=%{DATA:[system][auth][user][add][name]}, UID=%{NUMBER:[system][auth][user][add][uid]}, GID=%{NUMBER:[system][auth][user][add][gid]}, home=%{DATA:[system][auth][user][add][home]}, shell=%{DATA:[system][auth][user][add][shell]}$",
"%{SYSLOGTIMESTAMP:[system][auth][timestamp]} %{SYSLOGHOST:[system][auth][hostname]} %{DATA:[system][auth][program]}(?:\[%{POSINT:[system][auth][pid]}\])?: %{GREEDYMULTILINE:[system][auth][message]}"] }
pattern_definitions => {
"GREEDYMULTILINE"=> "(.|\n)*"
}
remove_field => "message"
}
date {
match => [ "[system][auth][timestamp]", "MMM d HH:mm:ss", "MMM dd HH:mm:ss" ]
}
geoip {
source => "[system][auth][ssh][ip]"
target => "[system][auth][ssh][geoip]"
}
}
else if [fileset][name] == "syslog" {
grok {
match => { "message" => ["%{SYSLOGTIMESTAMP:[system][syslog][timestamp]} %{SYSLOGHOST:[system][syslog][hostname]} %{DATA:[system][syslog][program]}(?:\[%{POSINT:[system][syslog][pid]}\])?: %{GREEDYMULTILINE:[system][syslog][message]}"] }
pattern_definitions => { "GREEDYMULTILINE" => "(.|\n)*" }
remove_field => "message"
}
date {
match => [ "[system][syslog][timestamp]", "MMM d HH:mm:ss", "MMM dd HH:mm:ss" ]
}
}
}
}
完成后保存并关闭文件。
最后,创建一个名为30-elasticsearch-output.conf
的配置文件:
sudo nano /etc/logstash/conf.d/30-elasticsearch-output.conf
插入以下output
配置。 本质上,此输出将Logstash配置为将Beats数据存储在Elasticsearch中,该数据在localhost:9200
运行,位于以Beat使用的名称命名的索引中。 本教程中使用的Beat是Filebeat:
output {
elasticsearch {
hosts => ["localhost:9200"]
manage_template => false
index => "%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}"
}
}
保存并关闭文件。
如果要为使用Filebeat输入的其他应用程序添加过滤器,请确保将文件命名为在输入和输出配置之间进行排序,这意味着文件名应以02
之间的两位数字开头。 30
。
使用以下命令测试Logstash配置:
sudo -u logstash /usr/share/logstash/bin/logstash --path.settings /etc/logstash -t
如果没有语法错误,几秒钟后输出将显示Configruation OK
。 如果在输出中没有看到此信息,请检查输出中出现的任何错误并更新配置以更正它们。
如果配置测试成功,请启动并启用Logstash以使配置更改生效:
sudo systemctl start logstash
sudo systemctl enable logstash
现在Logstash正确运行并完全配置,让我们安装Filebeat。
第4步 - 安装和配置Filebeat
Elastic Stack使用几个名为Beats的轻量级数据发送器来收集各种来源的数据,并将它们传输到Logstash或Elasticsearch。 以下是目前Elastic提供的Beats:
- Filebeat :收集并发送日志文件。
- Metricbeat :从您的系统和服务中收集指标。
- Packetbeat :收集和分析网络数据。
- Winlogbeat :收集Windows事件日志。
- Auditbeat :收集Linux审计框架数据并监视文件完整性。
- 心跳 :通过主动探测监控服务的可用性。
在本教程中,我们将使用Filebeat将本地日志转发到我们的Elastic Stack。
使用apt
安装Filebeat:
sudo apt install filebeat
接下来,配置Filebeat以连接到Logstash。 在这里,我们将修改Filebeat附带的示例配置文件。
打开Filebeat配置文件:
sudo nano /etc/filebeat/filebeat.yml
注意:与Elasticsearch一样,Filebeat的配置文件采用YAML格式。 这意味着正确的缩进至关重要,因此请务必使用这些说明中指示的相同数量的空格。
Filebeat支持多种输出,但您通常只将事件直接发送到Elasticsearch或Logstash以进行其他处理。 在本教程中,我们将使用Logstash对Filebeat收集的数据执行其他处理。 Filebeat不需要直接向Elasticsearch发送任何数据,所以让我们禁用该输出。 为此,找到output.elasticsearch
部分,并在#
前面注释掉以下行:
...
#output.elasticsearch:
# Array of hosts to connect to.
#hosts: ["localhost:9200"]
...
然后,配置output.logstash
部分。 取消注释行output.logstash:
和hosts: ["localhost:5044"]
删除#
。 这将配置Filebeat连接到Elastic Stack服务器上端口5044
的Logstash,我们之前为其指定了Logstash输入的端口:
output.logstash:
# The Logstash hosts
hosts: ["localhost:5044"]
保存并关闭文件。
Filebeat的功能可以使用Filebeat模块进行扩展。 在本教程中,我们将使用系统模块,该模块收集和解析由常见Linux发行版的系统日志记录服务创建的日志。
让我们启用它:
sudo filebeat modules enable system
您可以通过运行以下命令查看已启用和已禁用模块的列表:
sudo filebeat modules list
您将看到类似于以下内容的列表:
OutputEnabled:
system
Disabled:
apache2
auditd
elasticsearch
icinga
iis
kafka
kibana
logstash
mongodb
mysql
nginx
osquery
postgresql
redis
traefik
默认情况下,Filebeat配置为使用syslog和授权日志的默认路径。 对于本教程,您无需更改配置中的任何内容。 您可以在/etc/filebeat/modules.d/system.yml
配置文件中查看模块的参数。
接下来,将索引模板加载到Elasticsearch中。 Elasticsearch索引是具有类似特征的文档集合。 索引用名称标识,用于在其中执行各种操作时引用索引。 创建新索引时,将自动应用索引模板。
要加载模板,请使用以下命令:
sudo filebeat setup --template -E output.logstash.enabled=false -E 'output.elasticsearch.hosts=["localhost:9200"]'
OutputLoaded index template
Filebeat附带了示例Kibana仪表板,允许您在Kibana中可视化Filebeat数据。 在使用仪表板之前,您需要创建索引模式并将仪表板加载到Kibana中。
在仪表板加载时,Filebeat连接到Elasticsearch以检查版本信息。 要在启用Logstash时加载仪表板,您需要禁用Logstash输出并启用Elasticsearch输出:
sudo filebeat setup -e -E output.logstash.enabled=false -E output.elasticsearch.hosts=['localhost:9200'] -E setup.kibana.host=localhost:5601
您将看到如下所示的输出:
Output2018-09-10T08:39:15.844Z INFO instance/beat.go:273 Setup Beat: filebeat; Version: 6.4.2
2018-09-10T08:39:15.845Z INFO elasticsearch/client.go:163 Elasticsearch url: http://localhost:9200
2018-09-10T08:39:15.845Z INFO pipeline/module.go:98 Beat name: elk
2018-09-10T08:39:15.845Z INFO elasticsearch/client.go:163 Elasticsearch url: http://localhost:9200
2018-09-10T08:39:15.849Z INFO elasticsearch/client.go:708 Connected to Elasticsearch version 6.4.2
2018-09-10T08:39:15.856Z INFO template/load.go:129 Template already exists and will not be overwritten.
Loaded index template
Loading dashboards (Kibana must be running and reachable)
2018-09-10T08:39:15.857Z INFO elasticsearch/client.go:163 Elasticsearch url: http://localhost:9200
2018-09-10T08:39:15.865Z INFO elasticsearch/client.go:708 Connected to Elasticsearch version 6.4.2
2018-09-10T08:39:15.865Z INFO kibana/client.go:113 Kibana url: http://localhost:5601
2018-09-10T08:39:45.357Z INFO instance/beat.go:659 Kibana dashboards successfully loaded.
Loaded dashboards
2018-09-10T08:39:45.358Z INFO elasticsearch/client.go:163 Elasticsearch url: http://localhost:9200
2018-09-10T08:39:45.361Z INFO elasticsearch/client.go:708 Connected to Elasticsearch version 6.4.2
2018-09-10T08:39:45.361Z INFO kibana/client.go:113 Kibana url: http://localhost:5601
2018-09-10T08:39:45.455Z WARN fileset/modules.go:388 X-Pack Machine Learning is not enabled
Loaded machine learning job configurations
现在您可以启动并启用Filebeat:
sudo systemctl start filebeat
sudo systemctl enable filebeat
如果您正确设置了Elastic Stack,Filebeat将开始将您的系统日志和授权日志发送到Logstash,Logstash会将该数据加载到Elasticsearch中。
要验证Elasticsearch是否确实正在接收此数据,请使用以下命令查询Filebeat索引:
curl -XGET 'http://localhost:9200/filebeat-*/_search?pretty'
您将看到与此类似的输出:
Output...
{
"took" : 32,
"timed_out" : false,
"_shards" : {
"total" : 3,
"successful" : 3,
"skipped" : 0,
"failed" : 0
},
"hits" : {
"total" : 1641,
"max_score" : 1.0,
"hits" : [
{
"_index" : "filebeat-6.4.2-2018.10.10",
"_type" : "doc",
"_id" : "H_bZ62UBB4D0uxFRu_h3",
"_score" : 1.0,
"_source" : {
"@version" : "1",
"message" : "Oct 10 06:22:36 elk systemd[1]: Reached target Local File Systems (Pre).",
"@timestamp" : "2018-10-10T08:43:56.969Z",
"host" : {
"name" : "elk"
},
"source" : "/var/log/syslog",
"input" : {
"type" : "log"
},
"tags" : [
"beats_input_codec_plain_applied"
],
"offset" : 296,
"prospector" : {
"type" : "log"
},
"beat" : {
"version" : "6.4.2",
"hostname" : "elk",
"name" : "elk"
}
}
},
...
如果您的输出显示总命中数为0,则Elasticsearch不会在您搜索的索引下加载任何日志,您需要检查设置是否有错误。 如果您收到了预期的输出,请继续执行下一步,我们将在其中了解如何浏览Kibana的一些仪表板。
第5步 - 探索Kibana仪表板
让我们看看我们之前安装的Web界面Kibana。
在Web浏览器中,转到Elastic Stack服务器的FQDN或公共IP地址。 输入您在第2步中定义的登录凭据后,您将看到Kibana主页:
单击左侧导航栏中的“ 发现”链接。 在“ 发现”页面上,选择预定义的filebeat- *索引模式以查看Filebeat数据。 默认情况下,这将显示过去15分钟内的所有日志数据。 您将看到包含日志事件的直方图,以及下面的一些日志消息:
在这里,您可以搜索和浏览日志,还可以自定义仪表板。 但是,此时不会有太多因为您只从Elastic Stack服务器收集系统日志。
使用左侧面板导航到Dashboard页面并搜索Filebeat System仪表板。 在那里,您可以搜索Filebeat system
模块附带的示例仪表板。
例如,您可以根据系统日志消息查看详细的统计信息:
您还可以查看哪些用户使用了sudo
命令以及何时:
Kibana还有许多其他功能,例如图形和过滤功能,因此您可以随意浏览。
结论
在本教程中,您学习了如何安装和配置Elastic Stack以收集和分析系统日志。 请记住,您可以使用Beats将任何类型的日志或索引数据发送到Logstash,但如果使用Logstash过滤器对数据进行解析和结构化,则数据变得更加有用,因为这会将数据转换为可读取的一致格式很容易通过Elasticsearch。