ElasticSearch之安装及基本操作API

Stella981
• 阅读 617

ElasticSearch之安装及基本操作API

ElasticSearch 是目前非常流行的搜索引擎,对海量数据搜索是非常友好,并且在高并发场景下,也能发挥出稳定,快速特点。也是大数据和索搜服务的开发人员所极力追捧的中间件。虽然 ElasticSearch 深受大家的喜爱,但是它的迭代速度之快,所以在相关社区老是有听说到学不动了的话语,也正是这种不断完善,才能拥有现在的社区活跃。我使用 ElasticSearch 时,从 5.x 到 6.x 版本,再到现在接触到 7.x 版本。从版本升级中,也看到了 ElasticSearch 对主流技术变化的拥抱,最明显的是新版 JDK 版本的支持及容器技术的支持。

安装

本文基于目前最新版本ElasticSearch-7.5.0进行操作,如官网下载太慢,可在【ytao公众号】中发送es获取下载链接。

安装环境及本文相关包:

操作系统    CentOS 7.5 64位
ElasticSearch 7.5.0
Kinbana 7.5.0

JDK 环境

ElasticSearch 在 7.x 中自带 JDK 环境,所以现在不一定要安装 JDK。默认是先判断当前服务器是否安装 JDK,如果安装了就使用服务器已安装的 JDK,否则会使用自带的 JDK,当然这个也是可以手动设置。

创建启动账号

由于 ElasticSearch 默认是不支持 root 账号权限启动,所以第一步要先创建启动账号。 创建一个 ElasticSearch 的运行组 es:

groupadd es

在 es 组中创建用户:

useradd elastic -g es 

设置新用户密码:

passwd elastic

给解压出的 ElasticSearch 包授权:

chown -R elastic:es elasticsearch-7.5.0

修改配置文件

进入到/elasticsearch-7.5.0目录,在config目录里有个elasticsearch.yml文件,修改里面当前需要的配置。

  • cluster.name 是所属集群的名称
  • node.name 当前节点名称
  • network.host 当前节点所绑定地址,绑定到0.0.0.0所有的访问
  • http.port 对外提供服务的端口号
  • path.data 数据存储目录,这个我一般不适用默认目录,但是要给自定义的目录授权
  • path.log 日志目录,和 path.data 类似配置

另外一个重要的配置,在当前目录中的jvm.options文件设置。 这里设置堆内存大小,建议设置机器内存的 50% 大小。

-Xms4g
-Xmx4g

其他配置暂时没用到,暂不分析,今后的文章中用到再进行讲解。

启动

安装配置文件设置的值默认启动,直接执行./bin/elasticsearch,果然不出乎所意料,启动异常。

ElasticSearch之安装及基本操作API

上图中抛了两个异常。

  • 第一个是说虚拟内存太小,至少需要 262144。
  • 第二个当前默认配置不适合,[discovery.seed_hosts, discovery.seed_providers, cluster.initial_master_nodes]配置中至少有一个配置。

现在就增大服务器虚拟内存:

# 编辑 sysctl.conf 文件
vim /etc/sysctl.conf

# 在 sysctl.conf 中添加
vm.max_map_count=262144

# 查看刚设置的是否生效
sysctl -p

设置 cluster.initial_master_nodes 配置参数:

cluster.initial_master_nodes: ["node-1"]

再次启动完成后,没有异常抛出,访问ip:9200,返回数据信息,其中包括集群名称,节点名,版本信息等等:

ElasticSearch之安装及基本操作API

基本操作API

在进行 API 操作前先安装 kibana,以下命令执行将全部在 kibana 中执行。解压 kibana 后,在kibana.yml中设置 ElasticSearch 地址elasticsearch.hosts: ["http://ip:9200"]。通过bin/kibana进行启动。安装比较简单,这里不做详细阐述。

索引操作

创建索引

创建 person 索引例子,number_of_shards 为分片数量,number_of_replicas 为索引的副本数,这里主要演示创建索引时可设置一些相关参数,且为非必填项。

PUT /person
{
  "mappings" : { 
   "properties": {
     "name" : {
        "type" : "text",
        "fields" : {
          "keyword" : {
            "type" : "keyword",
            "ignore_above" : 256  // 长度超过ignore_above设定的值,不会被索引或存储
          }
        }
      }
   }
  },
  "settings": {
    "number_of_shards": 1,
    "number_of_replicas": 1
  }
}

执行命令结果:

ElasticSearch之安装及基本操作API

查询索引

使用 GET 请求方式查询索引信息:

GET /person

返回结果

ElasticSearch之安装及基本操作API

删除索引

使用 DELETE 请求方式:

# 删除 person 索引
DELETE /person

# 删除全部索引
DELETE /_all

# 通配符删除
DELETE /person*

mapping 操作

查询 person 索引的 mapping :

GET /person/_mapping

向 person 索引中添加 remark 字段,之前 mapping 中的 name 不会被删除,。

POST /person/_mapping
{
  "properties" : {
      "remark2" : {
        "type" : "text",
        "fields" : {
        "keyword" : {
          "type" : "keyword",
          "ignore_above" : 256
        }
      }
    }
  }
}

文档操作

添加文档

添加文档有两种方式,第一种就是使用指定索引的 type 添加文档,7.x开始,type 指定只能是 _doc 值,同时也是不支持多 type 的(ps:之前使用type主要用来将索引逻辑分区)。第二种就是使用 _create 进行创建数据。

index 方式添加文档

使用_doc API向 person 中添加文档:

PUT /person/_doc/1
{
  "name":"ytao",
  "blog":"公众号 ytao",
  "remark":"https://ytao.top"
}

添加文档后返回的数据:

ElasticSearch之安装及基本操作API

上面命令执行过程,如果索引或 mapping 不存在,都会自动创建。这里的 id 我们也可以自动生成,但是请求不能使用 PUT 方式,要改为 POST 方式。

POST /person/_doc/
{
  "name":"ytao",
  "blog":"公众号 ytao",
  "remark":"https://ytao.top"
}

如果上面我们插入 id 为 1 的文档重复执行,那么会先删除掉旧的文档,再引用新的文档,并且所对应的_version版本号值会较之前的 +1。

create 方式添加文档

使用_create API向 person 添加文档:

PUT /person/_create/2
{
  "name":"yangtao",
  "blog":"ytao's blog",
  "remark":"coder"
}

这里 id 必须指明,否则添加失败,并且文档中已存在的 id 不能进行添加。

获取和查询文档

根据 id 获取文档

使用 GET 获取文档:

GET /person/_doc/1

返回数据中:

ElasticSearch之安装及基本操作API

根据字段进行查询

使用_search API进行查询,这里暂时不做深入讲解。 查询 name 为 ytao 的文档,并且通过from=0&size=2分页查询。

# q 为查询参数,查询的字段和值用 : 进行分割
GET /person/_search?q=name:ytao&from=0&size=2

返回结果:

ElasticSearch之安装及基本操作API

更新文档

更新文档使用 _update API进行更新。更新内容必须包含在doc。更新对源数据只能是添加或修改字段,这也是和使用_doc添加数据的区别,不是通过删除旧的文档进行更新的。

POST /person/_update/1
{
  "doc":{
    "blog":"ytao's blog"
  }
}

删除文档

文档删除使用 DELETE 请求,然后指定 id:

DELETE /person/_doc/1

批量操作文档

批量处理可以一次请求中处理多个任务,使用_bulk API进行。 下面就以索引添加方式添加一个文档到索引中,然后更新文档中 blog 字段为例。

POST _bulk
{"index":{"_index":"person", "_id":1}}
{"name":"ytao","blog":"公众号 ytao","remark":"https://ytao.top"}
{"update":{"_index":"person", "_id":1}}
{"doc":{"blog":"ytao's blog"}}

返回结果中,按每一个操作分别返回结果信息,当其中有请求错误时,不会影响其他请求操作。

ElasticSearch之安装及基本操作API

批量获取文档

批量获取文档,使用_mget API进行,通过一次指定多个文档 id,进行请求。 例如在 person 索引中获取 id 为 1,2 的文档:

POST _mget
{
  "docs":[
    {
      "_index": "person",
      "_id": 1
    },
    {
      "_index": "person",
      "_id": 2
    } 
  ]
}

返回结果:

ElasticSearch之安装及基本操作API

批量查询文档

批量查询文档,使用_msearch API进行,将多个查询整合到一个请求中。 下面就是分别在指定索引中查询的不同条件。

GET /person/_msearch
{"index":"person"}
{"query":{"match":{"blog":"ytao's blog"}}}
{"index":"person"}
{"query":{"match":{"remark":"coder"}}}

返回结果:

ElasticSearch之安装及基本操作API

总结

本文对 ElasticSearch 的最基础的,常用的操作 API,这里已经介绍完毕。要想学习 ElasticSearch,建议从 API 操作入手,千万别上来就直接拿着代码就干,虽然各语言都已提供相关工具包,但是这些封装也都是基于 API 上的。更多的 API 在今后文章涉及时再进行分析。

更多 API 相关信息,建议查阅官网,这里有比较详细的介绍: https://www.elastic.co/guide/en/elasticsearch/reference/7.5/rest-apis.html

个人博客: https://ytao.top

关注公众号 【ytao】,更多原创好文

ElasticSearch之安装及基本操作API

点赞
收藏
评论区
推荐文章
Elasticsearch Head插件使用小结
ElasticSearchhead就是一款能连接ElasticSearch搜索引擎,并提供可视化的操作页面对ElasticSearch搜索引擎进行各种设置和数据检索功能的管理插件,如在head插件页面编写RESTful接口风格的请求,就可以对ElasticSearch中的数据进行增删改查、创建或者删除索引等操作。类似于使用navicat工具连接MySQL这种关系型数据库,对数据库做操作
Stella981 Stella981
2年前
ElasticSearch(增put、删delete、改(本质是先删除后添加)post、查get、post)
一、ElasticSearch简介1.1什么是ElasticSearchElasticSearch,简称es,es是一个开源的高扩展的分布式全文搜索引擎,可以近乎实时的存储、检索数据;本身扩展性很好,可以扩展到上百台服务器,处理pb级别的数据。es也使用java开发并使用Lucene作为其核心来实现所有索
Stella981 Stella981
2年前
ElasticSearch学习汇总
什么是ElasticSearch?ElasticSearch是一个基于Lucene的搜索服务器。它提供了一个分布式多用户能力的全文搜索引擎,基于RESTfulweb接口。Elasticsearch是用Java语言开发的,并作为Apache许可条款下的开放源码发布,是一种流行的企业级搜索引擎。ElasticSearch能够做到实时搜索并且稳定,
Wesley13 Wesley13
2年前
ELK初探
EKL核心组成1.ElasticSearch开源分布式搜索引擎,他的特点是分布式、零配置、自动发现、索引自动分片,索引副本机制,restful接口,多数据源,自动搜索负载。安装ElasticSearch  高可用,易扩展,支持集群(cluster),分片和复制(sharding和replicas)验证启动:curlXGETht
Stella981 Stella981
2年前
MQ异步同步搜索引擎ElasticSearch数据踩坑
业务背景  在大型网站中,为了减少DB压力、让数据更精准、速度更快,将读拆分出来采用搜索引擎来为DB分担读的压力,ElasticSearch就是目前市面上比较流行的搜索引擎,他的检索速度奇快、支持各种复杂的全文检索,在各种场景下对比其他的搜索引擎的检索速度都显得尤为出众。这篇就先不介绍ElasticSearch了,后续我会出一个ElasticS
臧霸 臧霸
1个月前
海量数据高并发场景,构建Go+ES8企业级搜索微服务_无密分享
构建GoES8企业级搜索微服务可以实现在海量数据和高并发场景下进行高效的搜索。下面是一个简要的指南,帮助您构建这样的微服务:一、了解Elasticsearch(ES):深入学习和理解Elasticsearch的核心概念和功能,如索引、文档、查询、分析器等
邢德全 邢德全
3个月前
海量数据高并发场景,构建Go+ES8企业级搜索微服务_无密分享
海量数据高并发场景,构建GoES8企业级搜索微服务无密分享download》chaoxingit.com/895/一、项目背景在海量数据高并发场景下构建Go语言与Elasticsearch8(ES8)的企业级搜索微服务可能是为了应对以下一些具体需求和挑战
程昱 程昱
2个月前
海量数据高并发场景,构建Go+ES8企业级搜索微服务_无密分享
海量数据高并发场景,构建GoES8企业级搜索微服务无密分享download》quangneng.com/895/构建GoElasticsearch8企业级搜索微服务在处理海量数据和高并发场景下,构建一个稳健高效的企业级搜索微服务是至关重要的。本文将引导
乐和 乐和
2个月前
海量数据高并发场景,构建Go+ES8企业级搜索微服务
海量数据高并发场景,构建GoES8企业级搜索微服务download》chaoxingit.com/895/海量数据高并发场景下的GoES8企业级解决方案一、引言在当今数字化时代,海量数据的产生和处理已经成为企业面临的重要挑战。高并发场景下,如何快速、准
韦康 韦康
1个月前
海量数据高并发场景,构建Go+ES8企业级搜索微服务_无密分享
海量数据高并发场景,构建GoES8企业级搜索微服务无密分享download》quangneng.com/895/GoES8企业级搜索微服务的介绍GoES8企业级搜索微服务是一个基于Go语言和Elasticsearch8.x(简称ES8)构建的高性能、