EFK实战一

Wesley13
• 阅读 212

EFK实战一

EFK实战一

在分布式系统中,由于节点服务会部署多台,一旦出现线上问题需要通过日志分析定位问题就需要登录服务器一台一台进行日志检索,非常不便利,这时候就需要用到EFK日志收集工具。

在应用服务端部署Filebeat,将我们打印到日志文件中的日志发送到Logstash中,在经过Logstash的解析格式化后将日志发送到ElasticSearch中,最后通过Kibana展现出来。EFK基础版的架构如下:
EFK实战一

本文主要是使用docker和docker-Compose部署EFK的基础环境,选择7.5.1作为EFK组件版本。

当然了如果大家对dockerdocker-compose不是很熟悉的话可以翻看我之前为大家准备的两篇文章:

实在不想使用docker部署的话也可以下载对应的安装包然后手动部署,配置方式基本一样。

安装配置

elasticsearch

安装elasticsearch之前先配置如下的系统变量

  • 修改/etc/sysctl.conf,在最后追加如下配置
    vm.max_map_count = 655360

  • 修改/etc/security/limits.conf,增加如下配置

    •        soft    memlock          unlimited*           hard    memlock          unlimited*           hard    nofile           65536*           soft    nofile           65536
      
  • 修改 /etc/security/limits.d/20-nproc.conf,增加如下配置

    •      soft    nproc     4096root       soft    nproc     unlimited
      
  • 启动elasticsearch临时容器
    docker run --rm --name es -p9200:9200 -p9300:9300 -e discovery.type=single-node elasticsearch:7.5.1

  • 导出elasticsearch配置文件
    docker cp fbce586c8a56:/usr/share/elasticsearch/config/elasticsearch.yml /app/elk/elasticsearch/conf/elasticsearch.yml

  • 修改es配置文件

    cluster.name: "elk-cluster"network.host: 0.0.0.0bootstrap.memory_lock: truediscovery.type: single-node

  • 建立es的日志文件夹和数据文件夹,并对文件夹授权

    mkdir -p /app/elk/elasticsearch/logsmkdir -p /app/elk/elasticsearch/datachmod -R 777 /app/elk/elasticsearch/logschmod -R 777 /app/elk/elasticsearch/data

  • 停止临时容器
    docker stop fbce586c8a56

logstash

  • 启动临时容器
    docker run --rm --name logstash -p5044:5044 -p9600:9600 logstash:7.5.1

  • 导出docker的配置文件
    docker cp 5adb0971bb0f:/usr/share/logstash/config /app/elk/logstash

  • 建立logstash数据文件夹,并对其授权

    mkdir -p /app/elk/logstash/datachmod -R 777 /app/elk/logstash/data

  • 复制logstash启动文件,并对其修改

    cd /app/elk/logstash/configcp logstash-sample.conf logstash.conf

修改logstash.conf,配置output

# Sample Logstash configuration for creating a simple# Beats -> Logstash -> Elasticsearch pipeline.input {  beats {    port => 5044  }}output {  elasticsearch {    hosts => ["http://172.31.0.207:9200"]    index => "%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}"    #user => "elastic"    #password => "changeme"  }}

暂时修改一下ES的访问路径即可。

  • 停止临时容器
    docker stop 5adb0971bb0f

kibana

  • 启动临时容器
    docker run --rm --name kibana -p5601:5601 kibana:7.5.1

  • 导出kibana配置文件
    docker cp f21f0f9e0259:/usr/share/kibana/config/kibana.yml /app/elk/kibana/conf/kibana.yml

  • 修改kibana配置

    server.name: kibanaserver.host: "0"elasticsearch.hosts: [ "http://172.31.0.207:9200" ]xpack.monitoring.ui.container.elasticsearch.enabled: truei18n.locale: zh-CN

设置i18n.locale: zh-CN属性后会对kibana进行汉化,这样便于操作,主要还是我英语不太好~

  • 停止临时容器
    docker stop f21f0f9e0259

docker-compose

经过上面的准备,我们可以编写docker-compose文件,方便我们对容器进行编排,一键启动。有了之前的基础,我们很容易编写出对应的yml文件,编写后的内容如下:

version: "3"services:  elasticsearch:    image: docker.io/elasticsearch:7.5.1    container_name: elasticsearch    environment:      - "ES_JAVA_OPTS=-Xms4096m -Xmx4096m -Xmn1300m"    volumes:      - /app/elk/elasticsearch/conf/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml      - /app/elk/elasticsearch/data:/usr/share/elasticsearch/data:rw      - /app/elk/elasticsearch/logs:/usr/share/elasticsearch/logs:rw    ports:      - "9200:9200"      - "9300:9300"    restart: always  kibana:    image: docker.io/kibana:7.5.1    container_name: kibana    volumes:      - /app/elk/kibana/conf/kibana.yml:/usr/share/kibana/config/kibana.yml    ports:      - "5601:5601"    depends_on:      - elasticsearch    restart: always  logstash:    image: logstash:7.5.1    container_name: logstash    command: logstash -f /usr/share/logstash/config/logstash.conf    volumes:      - /app/elk/logstash/config:/usr/share/logstash/config      - /app/elk/logstash/data:/usr/share/logstash/data    ports:      - "9600:9600"      - "5044:5044"    depends_on:      - elasticsearch    restart: always

将docker-compose文件上传至服务器,启动docker服务
docker-compose -f elk.yml up -d
EFK实战一

启动完成后访问kibana地址http://172.31.0.207:5601/验证是否正常访问

安全认证

我们刚刚部署的elk环境是不需要密码就可以登录kibana的,这样谁都可以访问而且可以更改数据。所以我们需要给kibana加个密码,必须要登录才可以进行操作。

主要是利用elasticsearch自带的xpack作为权限验证功能。操作步骤如下:

  • 修改es外部配置文件 /app/elk/elasticsearch/conf/elasticsearch.yml,开启权限验证

    xpack.security.enabled: true

  • 重启elasticsearch服务
    docker-compose -f elk.yml restart elasticsearch

  • 进入es容器,为内置账号设置密码

    docker exec -it elasticsearch /bin/bashcd /usr/share/elasticsearch/bin./elasticsearch-setup-passwords interactive

EFK实战一

file

  • 修改kibana配置文件 /app/elk/kibana/conf/kibana.yml

    elasticsearch.username: "elastic"elasticsearch.password: "xxxxxx"

  • 重启kibana
    docker-compose -f elk.yml restart kibana

  • 重新访问kibana,并使用上面设置的elastic账号进行登录
    EFK实战一
    至此我们顺利给EFK加上了安全认证,可以放心在生产环境部署使用了!

好了,各位朋友们,本期的内容到此就全部结束啦,下一期我们会将业务系统的日志接入EFK并对日志进行解析格式化,欢迎持续关注。

如果觉得这篇文章对你有所帮助的话请扫描下面二维码加个关注。"转发" 加 "在看",养成好习惯!咱们下期再见!

EFK实战一

EFK实战一

EFK实战一

本文分享自微信公众号 - JAVA日知录(javadaily)。
如有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。

点赞
收藏
评论区
推荐文章
blmius blmius
1年前
MySQL:[Err] 1292 - Incorrect datetime value: ‘0000-00-00 00:00:00‘ for column ‘CREATE_TIME‘ at row 1
文章目录问题用navicat导入数据时,报错:原因这是因为当前的MySQL不支持datetime为0的情况。解决修改sql\mode:sql\mode:SQLMode定义了MySQL应支持的SQL语法、数据校验等,这样可以更容易地在不同的环境中使用MySQL。全局s
小森森 小森森
5个月前
校园表白墙微信小程序V1.0 SayLove -基于微信云开发-一键快速搭建,开箱即用
后续会继续更新,敬请期待2.0全新版本欢迎添加左边的微信一起探讨!项目地址:(https://www.aliyun.com/activity/daily/bestoffer?userCodesskuuw5n)\2.Bug修复更新日历2.情侣脸功能大家不要使用了,现在阿里云的接口已经要收费了(土豪请随意),\\和注意
Wesley13 Wesley13
1年前
030 SSM综合练习06
1.权限操作涉及的三张表(1)用户表信息描述users!(https://oscimg.oschina.net/oscnet/a4a2b1f943cbc2db1c8ddd613e7ed00a9ae.png)sql语句:CREATETABLEusers(idVARCHAR2(32)DEFAU
Stella981 Stella981
1年前
KVM调整cpu和内存
一.修改kvm虚拟机的配置1、virsheditcentos7找到“memory”和“vcpu”标签,将<namecentos7</name<uuid2220a6d1a36a4fbb8523e078b3dfe795</uuid
Easter79 Easter79
1年前
Twitter的分布式自增ID算法snowflake (Java版)
概述分布式系统中,有一些需要使用全局唯一ID的场景,这种时候为了防止ID冲突可以使用36位的UUID,但是UUID有一些缺点,首先他相对比较长,另外UUID一般是无序的。有些时候我们希望能使用一种简单一些的ID,并且希望ID能够按照时间有序生成。而twitter的snowflake解决了这种需求,最初Twitter把存储系统从MySQL迁移
Stella981 Stella981
1年前
Github标星5300+,专门为程序员开发文档开源管理系统,我粉了
!(https://oscimg.oschina.net/oscnet/a11909a041dac65b1a36b2ae8b9bcc5c432.jpg)码农那点事儿关注我们,一起学习进步!(https://oscimg.oschina.net/oscnet/f4cce1b7389cb00baaab228e455da78d0
Wesley13 Wesley13
1年前
MySQL查询按照指定规则排序
1.按照指定(单个)字段排序selectfromtable_nameorderiddesc;2.按照指定(多个)字段排序selectfromtable_nameorderiddesc,statusdesc;3.按照指定字段和规则排序selec
Stella981 Stella981
1年前
Android蓝牙连接汽车OBD设备
//设备连接public class BluetoothConnect implements Runnable {    private static final UUID CONNECT_UUID  UUID.fromString("0000110100001000800000805F9B34FB");
Wesley13 Wesley13
1年前
MySQL部分从库上面因为大量的临时表tmp_table造成慢查询
背景描述Time:20190124T00:08:14.70572408:00User@Host:@Id:Schema:sentrymetaLast_errno:0Killed:0Query_time:0.315758Lock_
helloworld_34035044 helloworld_34035044
8个月前
皕杰报表之UUID
​在我们用皕杰报表工具设计填报报表时,如何在新增行里自动增加id呢?能新增整数排序id吗?目前可以在新增行里自动增加id,但只能用uuid函数增加UUID编码,不能新增整数排序id。uuid函数说明:获取一个UUID,可以在填报表中用来创建数据ID语法:uuid()或uuid(sep)参数说明:sep布尔值,生成的uuid中是否包含分隔符'',缺省为
3A网络 3A网络
5个月前
开发一个不需要重写成 Hive QL 的大数据 SQL 引擎
开发一个不需要重写成HiveQL的大数据SQL引擎学习大数据技术的核心原理,掌握一些高效的思考和思维方式,构建自己的技术知识体系。明白了原理,有时甚至不需要学习,顺着原理就可以推导出各种实现细节。各种知识表象看杂乱无章,若只是学习