ES索引

6/16/2022 9:57:25 AM
793
0

目录

查看集群的健康状况

查看所有索引

创建一个索引

索引一个文档到customer索引中

从customer索引中获取指定id的文档

查询所有文档

索引管理

Create Index   创建索引

Create Index  with mapping

Create Index  with Aliases

返回结果说明

Get Index   查看索引的定义信息

Delete Index

判断索引是否存在

修改索引的settings信息

索引模板

Open/Close  Index   打开/关闭索引

Shrink Index 收缩索引

Split Index 拆分索引

Rollover Index 别名滚动指向新创建的索引

查看索引状态信息

查看索引段信息

查看索引恢复信息

查看索引分片的存储信息

Clear Cache 清理缓存

Refresh,重新打开读取索引

Flush,将缓存在内存中的索引数据刷新到持久存储中

Force merge 强制段合并

映射详解

Mapping 映射是什么

映射类别 Mapping type 废除说明

字段类型 datatypes

字段定义属性介绍

字段定义属性—示例

Multi Field 多重字段

Multi Field 多重字段—示例

元字段

索引别名

别名的用途

新建索引时定义别名

创建别名     /_aliases

删除别名    

批量操作

为多个索引定义别名方式一

为多个索引定义别名方式二

方式三:通过统配符*模式来指定要别名的索引

带过滤器的别名

带routing的别名

以PUT方式来定义一个索引

查看别名定义信息

查看集群的健康状况
直接访问es服务端如下:

http://localhost:9200/_cat

 

http://localhost:9200/_cat/health

 

带上参数v返回结果会带上表头

http://192.168.13.129:9200/_cat/health?v

 

以上都是直接访问ES服务端的,下面我们直接访问ES的可视化界面Kibana来操作如下

 

Kibana的UI操作界面会有自动提示我们可以逐个把每个参数都查看一番

 

状态值说明
 Green - everything is good (cluster is fully functional) 
 Yellow - all data is available but some replicas are not yet allocated (cluster is fully functional)
 Red - some data is not available for whatever reason (cluster is partially functional)
查看集群的节点
GET /_cat/health?v 
查看所有索引
GET /_cat/indices?v

创建一个索引
创建一个名为 customer 的索引。pretty要求返回一个漂亮的json 结果

PUT /customer?pretty

再查看一下所有索引

GET /_cat/indices?v

索引一个文档到customer索引中
PUT /customer/_doc/1?pretty
{
 "name": "John Doe"
}

结果如下:

 

从customer索引中获取指定id的文档
GET /customer/_doc/1?pretty

 

查询所有文档
GET /customer/_search

 

索引管理
Create Index   创建索引
PUT twitter {

   "settings" : {  

     "index" : {      

     "number_of_shards" : 3,    

       "number_of_replicas" : 2    

   }  

 }

}

Default for number_of_shards is 5,max is 1024
Default for number_of_replicas is 1 (ie one replica for each primary shard)
索引的名字必须是小写的,不可重名
PUT twitter {

   "settings" : {    

      "number_of_shards" : 3,    

       "number_of_replicas" : 2  

   }

}

Create Index  with mapping
在创建时加入映射定义

PUT test {

   "settings" : {      

 "number_of_shards" : 1

   },  

 "mappings" : {    

   "type1" : {      

     "properties" : {      

       "field1" : { "type" : "text" }      

     }    

   }  

 }

}

Create Index  with Aliases
在创建时加入别名定义

PUT test {

   "aliases" : {      

        "alias_1" : {},    

        "alias_2" : {    

             "filter" : {      

                "term" : {

                    "user" : "kimchy"

                }    

           },    

       "routing" : "kimchy"    

   }  

 }

}

返回结果说明
{    

  "acknowledged": true,                   索引创建成功

   "shards_acknowledged": true,     所需数量的分片+副本启动成功                   这两个值也会返回false,

   "index": "test"                                                                                                  如果没有返回错误信息,则表示等待时间到了超时时间就直接返回了。

}

Get Index   查看索引的定义信息
可以一次获取多个索引(以逗号间隔) 获取所有索引   _all 或  用通配符*

GET /twitter

GET /twitter/_settings

GET /twitter/_mapping

Delete Index
可以一次删除多个索引(以逗号间隔) 删除所有索引   _all 或 通配符 *

DELETE /twitter

判断索引是否存在
HTTP status code 表示结果 404 不存在 , 200 存在

HEAD twitter

修改索引的settings信息
索引的设置信息分为静态信息和动态信息两部分。静态信息不可更改,

如索引的分片数。动态信息可以修改。详细的设置项请参考:

https://www.elastic.co/guide/en/elasticsearch/reference/current/index-modules.html#index-modules-settings

REST 访问端点:  /_settings  更新所有索引的。  {index}/_settings     更新一个或多个索引的settings。

修改备份数
PUT /twitter/_settings

{

   "index" : {

       "number_of_replicas" : 2

   }

}

设置回默认值,用null
PUT /twitter/_settings {  

 "index" : {    

       "refresh_interval" : null    

   }

}

设置索引的读写
index.blocks.read_only:设为true,则索引以及索引的元数据只可读

index.blocks.read_only_allow_delete:设为true,只读时允许删除。

index.blocks.read:设为true,则不可读。

index.blocks.write:设为true,则不可写。

index.blocks.metadata:设为true,则索引元数据不可读写。

索引模板
在创建索引时,为每个索引写定义信息可能是一件繁琐的事情,ES提供了索引模板功能,让你可以定义一个索引模板,模板中定义好settings、mapping、以及一个模式定义来匹配创建的索引。

注意:模板只在索引创建时被参考,修改模板不会影响已创建的索引

新增/修改名为tempae_1的模板,匹配名称为te* 或 bar*的索引创建。

PUT _template/template_1 {

 "index_patterns": ["te*", "bar*"],  

  "settings": {     "number_of_shards": 1   },  

  "mappings": {  

        "type1": {    

              "_source": {      "enabled": false       },

              "properties": {    

                    "host_name": {     "type": "keyword"         },  

                     "created_at": {

                                "type": "date",    

                                "format": "EEE MMM dd HH:mm:ss Z YYYY"

                      }  

              }  

       }

 }

}

查看索引模板
GET /_template/template_1

GET /_template/temp* GET /_template/template_1,template_2

GET /_template

删除模板
DELETE /_template/template_1

Open/Close  Index   打开/关闭索引
POST /my_index/_close

POST /my_index/_open

关闭的索引不能进行读写操作,几乎不占集群开销。

关闭的索引可以打开,打开走的是正常的恢复流程。

Shrink Index 收缩索引
索引的分片数是不可更改的,如要减少分片数可以通过收缩方式收缩为一个新的索引。新索引的分片数必须是原分片数的因子值,如原分片数是8,则新索引的分片数可以为4、2、1 。

收缩的流程:

先把所有主分片都转移到一台主机上;
在这台主机上创建一个新索引,分片数较小,其他设置和原索引一致;
把原索引的所有分片,复制(或硬链接)到新索引的目录下;
对新索引进行打开操作恢复分片数据;
(可选)重新把新索引的分片均衡到其他节点上。
收缩前的准备工作:
将原索引设置为只读; 将原索引各分片的一个副本重分配到同一个节点上,并且要是健康绿色状态。

PUT /my_source_index/_settings {  

  "settings": {  

       "index.routing.allocation.require._name": "shrink_node_name",  

       "index.blocks.write": true  

   }

}

进行收缩:
POST my_source_index/_shrink/my_target_index {

 "settings": {  

       "index.number_of_replicas": 1,  

       "index.number_of_shards": 1,  

       "index.codec": "best_compression"

 }

}

监控收缩过程:
GET _cat/recovery?v

GET _cluster/health

Split Index 拆分索引
当索引的分片容量过大时,可以通过拆分操作将索引拆分为一个倍数分片数的新索引。能拆分为几倍由创建索引时指定的index.number_of_routing_shards 路由分片数决定。这个路由分片数决定了根据一致性hash路由文档到分片的散列空间。

如index.number_of_routing_shards = 30 ,指定的分片数是5,则可按如下倍数方式进行拆分:

 5 → 10 → 30 (split by 2, then by 3)  
 5 → 15 → 30 (split by 3, then by 2)
 5 → 30 (split by 6)
注意:只有在创建时指定了index.number_of_routing_shards 的索引才可以进行拆分,ES7开始将不再有这个限制。

和solr的区别是,solr是对一个分片进行拆分,es中是整个索引进行拆分。

准备一个索引来做拆分:
PUT my_source_index {     "settings": {         "index.number_of_shards" : 1,         "index.number_of_routing_shards" : 2     } }

先设置索引只读:
PUT /my_source_index/_settings {   "settings": {     "index.blocks.write": true   } }

做拆分:
POST my_source_index/_split/my_target_index {   "settings": {     "index.number_of_shards": 2   } }

监控拆分过程:
GET _cat/recovery?v

GET _cluster/health

Rollover Index 别名滚动指向新创建的索引
对于有时效性的索引数据,如日志,过一定时间后,老的索引数据就没有用了。我们可以像数据库中根据时间创建表来存放不同时段的数据一样,在ES中也可用建多个索引的方式来分开存放不同时段的数据。比数据库中更方便的是ES中可以通过别名滚动指向最新的索引的方式,让你通过别名来操作时总是操作的最新的索引。

ES的rollover index API 让我们可以根据满足指定的条件(时间、文档数量、索引大小)创建新的索引,并把别名滚动指向新的索引。

注意:这时的别名只能是一个索引的别名。

Rollover Index 示

创建一个名字为logs-0000001 、别名为logs_write 的索引

PUT /logs-000001 {   "aliases": {     "logs_write": {}   } } # Add > 1000 documents to logs-000001

如果别名logs_write指向的索引是7天前(含)创建的或索引的文档数>=1000或索引的大小>= 5gb,则会创建一个新索引 logs-000002,并把别名logs_writer指向新创建的logs-000002索引

POST /logs_write/_rollover {   "conditions": {     "max_age":   "7d",     "max_docs":  1000,     "max_size":  "5gb"   } }

 

Rollover Index 新建索引的命名规

​如果索引的名称是-数字结尾,如logs-000001,则新建索引的名称也会是这个模式,数值增1。 如果索引的名称不是-数值结尾,则在请求rollover api时需指定新索引的名称:

POST /my_alias/_rollover/my_new_index_name {   "conditions": {     "max_age":   "7d",     "max_docs":  1000,     "max_size": "5gb"   } }

 

在名称中使用Date math(时间表达式)

如果你希望生成的索引名称中带有日期,如logstash-2016.02.03-1 ,则可以在创建索引时采用时间表达式来命名:

# PUT /<logs-{now/d}-1> with URI encoding:

PUT /%3Clogs-%7Bnow%2Fd%7D-1%3E {   "aliases": {     "logs_write": {}   } }

PUT logs_write/_doc/1 {   "message": "a dummy log" } POST logs_write/_refresh

# Wait for a day to pass

POST /logs_write/_rollover {   "conditions": {     "max_docs":   "1"   } }

Rollover时可对新的索引作定

PUT /logs-000001 {   "aliases": {     "logs_write": {}   } } POST /logs_write/_rollover {   "conditions" : {     "max_age": "7d",     "max_docs": 1000,     "max_size": "5gb"   },   "settings": {     "index.number_of_shards": 2   } }

 

Dry run  实际操作前先来个排

POST /logs_write/_rollover?dry_run {   "conditions" : {     "max_age": "7d",     "max_docs": 1000,     "max_size": "5gb"   } }

 

排练不会创建索引,只是检测条件是否满足

注意:rollover是你请求它才会进行操作,并不是自动在后台进行的。你可以周期性地去请求它。

查看索引状态信息
GET /_stats

GET /index1,index2/_stats

查看索引段信息
GET /test/_segments

GET /index1,index2/_segments

GET /_segments

查看索引恢复信息
GET index1,index2/_recovery?human

GET /_recovery?human

查看索引分片的存储信息
# return information of only index test GET /test/_shard_stores

# return information of only test1 and test2 indices GET /test1,test2/_shard_stores

# return information of all indices GET /_shard_stores

GET /_shard_stores?status=green

Clear Cache 清理缓存
POST /twitter/_cache/clear

默认会清理所有缓存,可指定清理query, fielddata or request 缓存

POST /kimchy,elasticsearch/_cache/clear POST /_cache/clear

Refresh,重新打开读取索引
POST /kimchy,elasticsearch/_refresh

POST /_refresh

Flush,将缓存在内存中的索引数据刷新到持久存储中
POST twitter/_flush

Force merge 强制段合并
POST /kimchy/_forcemerge?only_expunge_deletes=false&max_num_segments=100&flush=true

可选参数说明:

max_num_segments

合并为几个段,默认1

only_expunge_deletes

是否只合并含有删除文档的段,默认false

flush

合并后是否刷新,默认true

 

POST /kimchy,elasticsearch/_forcemerge

POST /_forcemerge

映射详解
Mapping 映射是什么
映射定义索引中有什么字段、字段的类型等结构信息。相当于数据库中表结构定义,或 solr中的schema。因为lucene索引文档时需要知道该如何来索引存储文档的字段。 ES中支持手动定义映射,动态映射两种方式。

Create Index  with mapping
PUT test {

"mappings" : {    

   "type1" : {      

     "properties" : {        

       "field1" : { "type" : "text" }      

     }    

   }  

 }

}

映射类别 Mapping type 废除说明
ES最先的设计是用索引类比关系型数据库的数据库,用mapping type 来类比表,一个索引中可以包含多个映射类别。这个类比存在一个严重的问题,就是当多个mapping type中存在同名字段时(特别是同名字段还是不同类型的),在一个索引中不好处理,因为搜索引擎中只有 索引-文档的结构,不同映射类别的数据都是一个一个的文档(只是包含的字段不一样而已)

从6.0.0开始限定仅包含一个映射类别定义( "index.mapping.single_type": true ),兼容5.x中的多映射类别。从7.0开始将移除映射类别。 为了与未来的规划匹配,请现在将这个唯一的映射类别名定义为“_doc”,因为索引的请求地址将规范为:PUT {index}/_doc/{id} and POST {index}/_doc

多个映射类别就转变为多个索引。如果你还想要在一个索引中放多类数据,也可像在数据库中定义骷髅表一样,通过定义一个数据类别字段,来区分不同的数据。

Mapping 映射示例
PUT twitter {

 "mappings": {  

   "_doc": {    

    "properties": {  

        "type": { "type": "keyword" },  

        "name": { "type": "text" },    

        "user_name": { "type": "keyword" },    

        "email": { "type": "keyword" },  

        "content": { "type": "text" },    

        "tweeted_at": { "type": "date" }  

     }  

   }

 }

}

 

多映射类别数据转储到独立的索引中
PUT users {

           "settings": {     "index.mapping.single_type": true   },  

                 "mappings": {  

                       "_doc": {  

                            "properties": {    

                                 "name": {  "type": "text"   },    

                                 "user_name": {  "type": "keyword"   },  

                                 "email": {  "type": "keyword"   }  

                             }

                      }

                }

        }

POST _reindex {  

    "source": {  

        "index": "twitter",     "type": "user"   },  

        "dest": {     "index": "users"   }

}

POST _reindex {

 "source": {     "index": "twitter"   },

 "dest": {     "index": "new_twitter"   },

 "script": {     "source": """       ctx._source.type = ctx._type;       ctx._id = ctx._type + '-' + ctx._id;       ctx._type = '_doc';     """   }

}

字段类型 datatypes
字段类型定义了该如何索引存储字段值。ES中提供了丰富的字段类型定义,请查看官网链接详细了解每种类型的特点:

https://www.elastic.co/guide/en/elasticsearch/reference/current/mapping-types.html

Core Datatypes     核心类型
string    

       text and keyword

Numeric datatypes

       long, integer, short, byte, double, float, half_float, scaled_float

Date datatype    

       date

Boolean datatype

       boolean

Binary datatype

       binary

Range datatypes     范围

       integer_range, float_range, long_range, double_range, date_range

Complex datatypes  复合类型
Array datatype    

       数组就是多值,不需要专门的类型

Object datatype  

       object :表示值为一个JSON 对象

Nested datatype    

       nested:for arrays of JSON objects(表示值为JSON对象数组 )

Geo datatypes  地理数据类型
Geo-point datatype

       geo_point: for lat/lon points  (经纬坐标点)

Geo-Shape datatype

       geo_shape: for complex shapes like polygons (形状表示)

Specialised datatypes  特别的类型
IP datatype

       ip: for IPv4 and IPv6 addresses

Completion datatype

       completion: to provide auto-complete suggestions

Token count datatype

       token_count: to count the number of tokens in a string

mapper-murmur3

       murmur3: to compute hashes of values at index-time and store them in the index

Percolator type

       Accepts queries from the query-dsl

join datatype

       Defines parent/child relation for documents within the same index

字段定义属性介绍
字段的type (Datatype)定义了如何索引存储字段值,还有一些属性可以让我们根据需要来覆盖默认的值或进行特别定义。请参考官网介绍详细了解: https://www.elastic.co/guide/en/elasticsearch/reference/current/mapping-params.html

   analyzer   指定分词器                                                
   normalizer   指定标准化器
   boost        指定权重值
   coerce      强制类型转换
   copy_to    值复制给另一字段
   doc_values  是否存储docValues
   dynamic
   enabled    字段是否可用
   fielddata
   eager_global_ordinals
   format    指定时间值的格式
   ignore_above
   ignore_malformed
   index_options
   index
   fields
   norms
   null_value
   position_increment_gap
   properties
   search_analyzer
   similarity
   store
   term_vector
字段定义属性—示例
PUT my_index {

 "mappings": {  

 "_doc": {  

   "properties": {    

   "date": {    

     "type":   "date",  

       "format": "yyyy-MM-dd HH:mm:ss||yyyy-MM-dd||epoch_millis"      

 }  

   }

   }

 }

}

请详细查看每个字段类型对应的可设置属性。

Multi Field 多重字段
当我们需要对一个字段进行多种不同方式的索引时,可以使用fields多重字段定义。如一个字符串字段即需要进行text分词索引,也需要进行keyword 关键字索引来支持排序、聚合;或需要用不同的分词器进行分词索引。

Multi Field 多重字段—示例
PUT my_index {   "mappings": {     "_doc": {       "properties": {         "city": {           "type": "text",           "fields": {             "raw": {               "type":  "keyword"             }           }         }       }     }   } }

PUT my_index/_doc/1 {   "city": "New York" } PUT my_index/_doc/2 {   "city": "York" }

GET my_index/_search {   "query": {     "match": {       "city": "york"     }   },   "sort": {     "city.raw": "asc"   },   "aggs": {     "Cities": {       "terms": {         "field": "city.raw"       }     }   } }

元字段
元字段是ES中定义的文档字段,有以下几类:

全部评论



提问