EFK实战一

Wesley13
• 阅读 283

EFK实战一

EFK实战一

在分布式系统中,由于节点服务会部署多台,一旦出现线上问题需要通过日志分析定位问题就需要登录服务器一台一台进行日志检索,非常不便利,这时候就需要用到EFK日志收集工具。

在应用服务端部署Filebeat,将我们打印到日志文件中的日志发送到Logstash中,在经过Logstash的解析格式化后将日志发送到ElasticSearch中,最后通过Kibana展现出来。EFK基础版的架构如下:
EFK实战一

本文主要是使用docker和docker-Compose部署EFK的基础环境,选择7.5.1作为EFK组件版本。

当然了如果大家对dockerdocker-compose不是很熟悉的话可以翻看我之前为大家准备的两篇文章:

实在不想使用docker部署的话也可以下载对应的安装包然后手动部署,配置方式基本一样。

安装配置

elasticsearch

安装elasticsearch之前先配置如下的系统变量

  • 修改/etc/sysctl.conf,在最后追加如下配置
    vm.max_map_count = 655360

  • 修改/etc/security/limits.conf,增加如下配置

    •        soft    memlock          unlimited*           hard    memlock          unlimited*           hard    nofile           65536*           soft    nofile           65536
      
  • 修改 /etc/security/limits.d/20-nproc.conf,增加如下配置

    •      soft    nproc     4096root       soft    nproc     unlimited
      
  • 启动elasticsearch临时容器
    docker run --rm --name es -p9200:9200 -p9300:9300 -e discovery.type=single-node elasticsearch:7.5.1

  • 导出elasticsearch配置文件
    docker cp fbce586c8a56:/usr/share/elasticsearch/config/elasticsearch.yml /app/elk/elasticsearch/conf/elasticsearch.yml

  • 修改es配置文件

    cluster.name: "elk-cluster"network.host: 0.0.0.0bootstrap.memory_lock: truediscovery.type: single-node

  • 建立es的日志文件夹和数据文件夹,并对文件夹授权

    mkdir -p /app/elk/elasticsearch/logsmkdir -p /app/elk/elasticsearch/datachmod -R 777 /app/elk/elasticsearch/logschmod -R 777 /app/elk/elasticsearch/data

  • 停止临时容器
    docker stop fbce586c8a56

logstash

  • 启动临时容器
    docker run --rm --name logstash -p5044:5044 -p9600:9600 logstash:7.5.1

  • 导出docker的配置文件
    docker cp 5adb0971bb0f:/usr/share/logstash/config /app/elk/logstash

  • 建立logstash数据文件夹,并对其授权

    mkdir -p /app/elk/logstash/datachmod -R 777 /app/elk/logstash/data

  • 复制logstash启动文件,并对其修改

    cd /app/elk/logstash/configcp logstash-sample.conf logstash.conf

修改logstash.conf,配置output

# Sample Logstash configuration for creating a simple# Beats -> Logstash -> Elasticsearch pipeline.input {  beats {    port => 5044  }}output {  elasticsearch {    hosts => ["http://172.31.0.207:9200"]    index => "%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}"    #user => "elastic"    #password => "changeme"  }}

暂时修改一下ES的访问路径即可。

  • 停止临时容器
    docker stop 5adb0971bb0f

kibana

  • 启动临时容器
    docker run --rm --name kibana -p5601:5601 kibana:7.5.1

  • 导出kibana配置文件
    docker cp f21f0f9e0259:/usr/share/kibana/config/kibana.yml /app/elk/kibana/conf/kibana.yml

  • 修改kibana配置

    server.name: kibanaserver.host: "0"elasticsearch.hosts: [ "http://172.31.0.207:9200" ]xpack.monitoring.ui.container.elasticsearch.enabled: truei18n.locale: zh-CN

设置i18n.locale: zh-CN属性后会对kibana进行汉化,这样便于操作,主要还是我英语不太好~

  • 停止临时容器
    docker stop f21f0f9e0259

docker-compose

经过上面的准备,我们可以编写docker-compose文件,方便我们对容器进行编排,一键启动。有了之前的基础,我们很容易编写出对应的yml文件,编写后的内容如下:

version: "3"services:  elasticsearch:    image: docker.io/elasticsearch:7.5.1    container_name: elasticsearch    environment:      - "ES_JAVA_OPTS=-Xms4096m -Xmx4096m -Xmn1300m"    volumes:      - /app/elk/elasticsearch/conf/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml      - /app/elk/elasticsearch/data:/usr/share/elasticsearch/data:rw      - /app/elk/elasticsearch/logs:/usr/share/elasticsearch/logs:rw    ports:      - "9200:9200"      - "9300:9300"    restart: always  kibana:    image: docker.io/kibana:7.5.1    container_name: kibana    volumes:      - /app/elk/kibana/conf/kibana.yml:/usr/share/kibana/config/kibana.yml    ports:      - "5601:5601"    depends_on:      - elasticsearch    restart: always  logstash:    image: logstash:7.5.1    container_name: logstash    command: logstash -f /usr/share/logstash/config/logstash.conf    volumes:      - /app/elk/logstash/config:/usr/share/logstash/config      - /app/elk/logstash/data:/usr/share/logstash/data    ports:      - "9600:9600"      - "5044:5044"    depends_on:      - elasticsearch    restart: always

将docker-compose文件上传至服务器,启动docker服务
docker-compose -f elk.yml up -d
EFK实战一

启动完成后访问kibana地址http://172.31.0.207:5601/验证是否正常访问

安全认证

我们刚刚部署的elk环境是不需要密码就可以登录kibana的,这样谁都可以访问而且可以更改数据。所以我们需要给kibana加个密码,必须要登录才可以进行操作。

主要是利用elasticsearch自带的xpack作为权限验证功能。操作步骤如下:

  • 修改es外部配置文件 /app/elk/elasticsearch/conf/elasticsearch.yml,开启权限验证

    xpack.security.enabled: true

  • 重启elasticsearch服务
    docker-compose -f elk.yml restart elasticsearch

  • 进入es容器,为内置账号设置密码

    docker exec -it elasticsearch /bin/bashcd /usr/share/elasticsearch/bin./elasticsearch-setup-passwords interactive

EFK实战一

file

  • 修改kibana配置文件 /app/elk/kibana/conf/kibana.yml

    elasticsearch.username: "elastic"elasticsearch.password: "xxxxxx"

  • 重启kibana
    docker-compose -f elk.yml restart kibana

  • 重新访问kibana,并使用上面设置的elastic账号进行登录
    EFK实战一
    至此我们顺利给EFK加上了安全认证,可以放心在生产环境部署使用了!

好了,各位朋友们,本期的内容到此就全部结束啦,下一期我们会将业务系统的日志接入EFK并对日志进行解析格式化,欢迎持续关注。

如果觉得这篇文章对你有所帮助的话请扫描下面二维码加个关注。"转发" 加 "在看",养成好习惯!咱们下期再见!

EFK实战一

EFK实战一

EFK实战一

本文分享自微信公众号 - JAVA日知录(javadaily)。
如有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。

点赞
收藏
评论区
推荐文章
blmius blmius
2年前
MySQL:[Err] 1292 - Incorrect datetime value: ‘0000-00-00 00:00:00‘ for column ‘CREATE_TIME‘ at row 1
文章目录问题用navicat导入数据时,报错:原因这是因为当前的MySQL不支持datetime为0的情况。解决修改sql\mode:sql\mode:SQLMode定义了MySQL应支持的SQL语法、数据校验等,这样可以更容易地在不同的环境中使用MySQL。全局s
Jacquelyn38 Jacquelyn38
2年前
2020年前端实用代码段,为你的工作保驾护航
有空的时候,自己总结了几个代码段,在开发中也经常使用,谢谢。1、使用解构获取json数据let jsonData  id: 1,status: "OK",data: 'a', 'b';let  id, status, data: number   jsonData;console.log(id, status, number )
皕杰报表之UUID
​在我们用皕杰报表工具设计填报报表时,如何在新增行里自动增加id呢?能新增整数排序id吗?目前可以在新增行里自动增加id,但只能用uuid函数增加UUID编码,不能新增整数排序id。uuid函数说明:获取一个UUID,可以在填报表中用来创建数据ID语法:uuid()或uuid(sep)参数说明:sep布尔值,生成的uuid中是否包含分隔符'',缺省为
Stella981 Stella981
2年前
KVM调整cpu和内存
一.修改kvm虚拟机的配置1、virsheditcentos7找到“memory”和“vcpu”标签,将<namecentos7</name<uuid2220a6d1a36a4fbb8523e078b3dfe795</uuid
Easter79 Easter79
2年前
Twitter的分布式自增ID算法snowflake (Java版)
概述分布式系统中,有一些需要使用全局唯一ID的场景,这种时候为了防止ID冲突可以使用36位的UUID,但是UUID有一些缺点,首先他相对比较长,另外UUID一般是无序的。有些时候我们希望能使用一种简单一些的ID,并且希望ID能够按照时间有序生成。而twitter的snowflake解决了这种需求,最初Twitter把存储系统从MySQL迁移
Wesley13 Wesley13
2年前
00:Java简单了解
浅谈Java之概述Java是SUN(StanfordUniversityNetwork),斯坦福大学网络公司)1995年推出的一门高级编程语言。Java是一种面向Internet的编程语言。随着Java技术在web方面的不断成熟,已经成为Web应用程序的首选开发语言。Java是简单易学,完全面向对象,安全可靠,与平台无关的编程语言。
Stella981 Stella981
2年前
Android蓝牙连接汽车OBD设备
//设备连接public class BluetoothConnect implements Runnable {    private static final UUID CONNECT_UUID  UUID.fromString("0000110100001000800000805F9B34FB");
Stella981 Stella981
2年前
Django中Admin中的一些参数配置
设置在列表中显示的字段,id为django模型默认的主键list_display('id','name','sex','profession','email','qq','phone','status','create_time')设置在列表可编辑字段list_editable
Stella981 Stella981
2年前
Nginx反向代理upstream模块介绍
!(https://oscimg.oschina.net/oscnet/1e67c46e359a4d6c8f36b590a372961f.gif)!(https://oscimg.oschina.net/oscnet/819eda5e7de54c23b54b04cfc00d3206.jpg)1.Nginx反
Wesley13 Wesley13
2年前
MySQL部分从库上面因为大量的临时表tmp_table造成慢查询
背景描述Time:20190124T00:08:14.70572408:00User@Host:@Id:Schema:sentrymetaLast_errno:0Killed:0Query_time:0.315758Lock_
Python进阶者 Python进阶者
3个月前
Excel中这日期老是出来00:00:00,怎么用Pandas把这个去除
大家好,我是皮皮。一、前言前几天在Python白银交流群【上海新年人】问了一个Pandas数据筛选的问题。问题如下:这日期老是出来00:00:00,怎么把这个去除。二、实现过程后来【论草莓如何成为冻干莓】给了一个思路和代码如下:pd.toexcel之前把这