ElasticSearch-入门篇
文章很长,喜欢的话,可以关注下博客。这段时间秋招忙完之后,会持续更新新内容
ElasticSearch介绍
介绍
1、elasticsearch是一个基于Lucene的高扩展的分布式搜索服务器,支持开箱即用。
2、elasticsearch隐藏了Lucene的复杂性,对外提供Restful 接口来操作索引、搜索。
突出优点:
-
扩展性好,可部署上百台服务器集群,处理PB级数据。
-
近实时的去索引数据、搜索数据。
es和solr选择哪个?
-
如果你公司现在用的solr可以满足需求就不要换了。
-
如果你公司准备进行全文检索项目的开发,建议优先考虑elasticsearch,因为像Github这样大规模的搜索都在用它。
倒排索引
下图是ElasticSearch的索引结构,下边黑色部分是物理结构,上边黄色部分是逻辑结构,逻辑结构也是为了更好的 去描述ElasticSearch的工作原理及去使用物理结构中的索引文件。
逻辑结构部分是一个倒排索引表:
1、将要搜索的文档内容分词,所有不重复的词组成分词列表。
2、将搜索的文档最终以Document方式存储起来。
3、每个词和docment都有关联。
如下:
现在,如果我们想搜到quick brown
我们只需要查找包含每个词条的文档:
两个文档都匹配,但是第一个文档比第二个匹配度更高。如果我们使用仅计算匹配词条数量的简单 相似性算法 , 那么,我们可以说,对于我们查询的相关性来讲,第一个文档比第二个文档更佳
基本概念
1.创建索引库 ———————>类似于:数据库的建表
2.创建映射 ———————>类似于:数据库的添加表中字段
3.创建(添加)文档 ———————>类似于:数据库的往表中添加数据。术语称这个过程为:创建索引
5.搜索文档 ———————>类似于:从数据库里查数据
6.文档 ———————>类似于:数据库中的一行记录(数据)
7.Field(域) ———————>类似于:数据库中的字段
创建索引库
概念:
ES的索引库是一个逻辑概念,它包括了分词列表及文档列表,同一个索引库中存储了相同类型的文档。它就相当于MySQL中的表,或相当于Mongodb中的集合。
索引(index)
# 索引是 ES 对逻辑数据的逻辑存储,所以可以被分为更小的部分
# 可以将索引看成 MySQL 的 Table,索引的结构是为快速有效的全文索引准备的,特别是它不存储原始值
# 可以将索引存放在一台机器,或分散在多台机器上
# 每个索引有一或多个分片(shard),每个分片可以有多个副本(replica)
操作:
使用postman这样的工具创建: put http://localhost:9200/索引库名称
# ES 中提供非结构化索引,实际上在底层 ES 会进行结构化操作,对用户透明
PUT http://localhost:9200/索引库名称
{
"settings":{
"index":{
"number_of_shards":"1", # 分片数
"number_of_replicas":"0" # 副本数
}
}
}
-
number_of_shards:设置分片的数量,在集群中通常设置多个分片,表示一个索引库将拆分成多片分别存储不同 的结点,提高了ES的处理能力和高可用性,入门程序使用单机环境,这里设置为1。
-
number_of_replicas:设置副本的数量,设置副本是为了提高ES的高可靠性,单机环境设置为0.
创建映射
概念
在索引中每个文档都包括了一个或多个field,创建映射就是向索引库中创建field的过程,下边是document和field 与关系数据库的概念的类比:
文档(Document)—– Row记录
字段(Field)—– Columns 列
注意:6.0之前的版本有type(类型)概念,type相当于关系数据库的表,ES官方将在ES9.0版本中彻底删除type。 上边讲的创建索引库相当于关系数据库中的数据库还是表?
1、如果相当于数据库就表示一个索引库可以创建很多不同类型的文档,这在ES中也是允许的。
2、如果相当于表就表示一个索引库只能存储相同类型的文档,ES官方建议在一个索引库中只存储相同类型的文档。
3、所以索引库相当于数句酷的一个表
操作
1、我们要把课程信息存储到ES中,这里我们创建课程信息的映射,先来一个简单的映射,如下:
发送:post http://localhost:9200/索引库名称/类型名称/_mapping
2、创建类型为xc_course的映射,共包括三个字段:name、description、studymondel 由于ES6.0版本还没有将type彻底删除,所以暂时把type起一个没有特殊意义的名字doc。post 请求:http://localhost:9200/xc_course/doc/_mapping
表示:在xc_course索引库下的doc类型下创建映射。doc是类型名,可以自定义,在ES6.0中要弱化类型的概念, 给它起一个没有具体业务意义的名称。
{
"properties": {
"name": {
"type": "text"
},
"description":{
"type": "text"
},
"studymodel":{
"type":"keyword"
}
}
}
创建文档
概念
ES中的文档相当于MySQL数据库表中的记录。
# 存储在 ES 中的主要实体叫文档,可以看成 MySQL 的一条记录
# ES 与 Mongo 的 document 类似,都可以有不同的结构,但 ES 相同字段必须有相同类型
# document 由多个字段组成,每个字段可能多次出现在一个文档里,这样的字段叫多值字段(multivalued)
# 每个字段的类型,可以使文本、数值、日期等。
# 字段类型也可以是复杂类型,一个字段包含其他子文档或者数组
# 在 ES 中,一个索引对象可以存储很多不同用途的 document,例如一个博客App中,可以保存文章和评论
# 每个 document 可以有不同的结构
# 不同的 document 不能为相同的属性设置不同的类型,例 : title 在同一索引中所有 Document 都应该相同数据类型
操作
发送:put 或Post http://localhost:9200/xc_course/doc/id值
(如果不指定id值ES会自动生成ID)
http://localhost:9200/xc_course/doc/4028e58161bcf7f40161bcf8b77c0000
{
"name":”Bootstrap开发框架",
"description" : "Bootstrap是由Twitter推出的一个前台页面开发框架,在行业之中使用较为广泛。此开发框架包含 了大量的CSS、JS程序代码,可以帮助开发者(尤其是不擅长页面开发的程序人员)轻松的实现个不受浏览器限制的精美界面 效果。”,
"studymodel": "201001"
}
搜索文档
1、根据课程id查询文档
发送:get http://localhost:9200/xc_course/doc/4028e58161bcf7f40161bcf8b77c0000
使用postman测试:
2、查询所有记录
发送 get http://localhost:9200/xc_course/doc/_search
3、查询名称中包括spring 关键字的的记录
发送:get http://localhost:9200/xc_course/doc/_search?q=name:bootstrap
4、查询学习模式为201001的记录
发送 get http://localhost:9200/xc_course/doc/_search?q=studymodel:201001
查询结果分析:
{
"took": 1,
"timed_out": false,
"_shards": {
"total": 1,
"successful": 1,
"skipped": 0,
"failed": 0
},
"hits": {
"total": 1,
"max_score": 0.2876821,
"hits": [
{
"_index": "xc_course",
"_type": "doc",
"_id": "4028e58161bcf7f40161bcf8b77c0000",
"_score": 0.2876821,
"_source": {
"name": "Bootstrap开发框架",
"description": "Bootstrap是由Twitter推出的一个前台页面开发框架,在行业之中使用较 为广泛。此开发框架包含了大量的CSS、JS程序代码,可以帮助开发者(尤其是不擅长页面开发的程序人员)轻松的实现 一个不受浏览器限制的精美界面效果。",
"studymodel": "201001"
}
}
]
}
}
结果说明:
took:本次操作花费的时间,单位为毫秒。timed_out:请求是否超时
_shards:说明本次操作共搜索了哪些分片hits:搜索命中的记录
hits.total : 符合条件的文档总数 hits.hits :匹配度较高的前N个文档
hits.max_score:文档匹配得分,这里为最高分
_score:每个文档都有一个匹配度得分,按照降序排列。
_source:显示了文档的原始内容。
分词
内置分词
分词API
分词是将一个文本转换成一系列单词的过程,也叫文本分析,在 ES 中称之为 Analysis
例如 : 我是中国人 -> 我 | 是 | 中国人
# 指定分词器进行分词
POST http://['自己的ip 加 port']/_analyze
{
"analyzer":"standard",
"text":"hello world"
}
# 结果中不仅可以看出分词的结果,还返回了该词在文本中的位置
# 指定索引分词
POST http://['自己的ip 加 port']/beluga/_analyze
{
"analyzer":"standard",
"field":"hobby",
"text":"听音乐"
}
Standard
# Standard 标准分词,按单词切分,并且会转换成小写
POST http://['自己的ip 加 port']/_analyze
{
"analyzer":"standard",
"text": "A man becomes learned by asking questions."
}
Simple
# Simple 分词器,按照非单词切分,并且做小写处理
POST http://['自己的ip 加 port']/_analyze
{
"analyzer":"simple",
"text":"If the document does't already exist"
}
Whitespace
# Whitespace 是按照空格切分
POST http://['自己的ip 加 port']/_analyze
{
"analyzer":"whitespace",
"text":"If the document does't already exist"
}
Stop
# Stop 去除 Stop Word 语气助词,如 the、an 等
POST http://['自己的ip 加 port']/_analyze
{
"analyzer":"stop",
"text":"If the document does't already exist"
}
Keyword
# keyword 分词器,意思是传入就是关键词,不做分词处理
POST http://['自己的ip 加 port']/_analyze
{
"analyzer":"keyword",
"text":"If the document does't already exist"
}
中文分词
# 中文分词的难点在于,汉语中没有明显的词汇分界点
# 常用中文分词器,IK jieba THULAC 等,推荐 IK
# IK Github 站点<自定义词典扩展,禁用词典扩展等>
https://github.com/medcl/elasticsearch-analysis-ik
IK分词器
安装过程这里不介绍,主要是解决常见中文分词的问题
Github地址:https://github.com/medcl/elasticsearch-analysis-ik
两种分词模式
ik分词器有两种分词模式:ik_max_word和ik_smart模式。
1、ik_max_word
会将文本做最细粒度的拆分,比如会将“中华人民共和国人民大会堂”拆分为“中华人民共和国、中华人民、中华、 华人、人民共和国、人民、共和国、大会堂、大会、会堂等词语。
2、ik_smart
会做最粗粒度的拆分,比如会将“中华人民共和国人民大会堂”拆分为中华人民共和国、人民大会堂。 测试两种分词模式:
映射
上边章节安装了ik分词器,如果在索引和搜索时去使用ik分词器呢?如何指定其它类型的field,比如日期类型、数 值类型等。本章节学习各种映射类型及映射维护方法。
映射维护方法
1、查询所有索引的映射:
GET: http://localhost:9200/_mapping
2、创建映射
post 请求:http://localhost:9200/xc_course/doc/_mapping
在上面提到过
{
"properties": {
"name": {
"type": "text"
},
"description":{
"type": "text"
},
"studymodel":{
"type":"keyword"
}
}
}
3、更新映射
映射创建成功可以添加新字段,已有字段不允许更新。
4、删除映射
通过删除索引来删除映射。
常用映射类型
text文本字段
1)text
字符串包括text和keyword两种类型: 通过analyzer属性指定分词器。
下边指定name的字段类型为text,使用ik分词器的ik_max_word分词模式。
{
"name": {
"type": "text",
"analyzer": "ik_max_word"
}
}
上边指定了analyzer是指在索引和搜索都使用ik_max_word,如果单独想定义搜索时使用的分词器则可以通过search_analyzer属性。
对于ik分词器建议是索引时使用ik_max_word将搜索内容进行细粒度分词,搜索时使用ik_smart提高搜索精确性。
{
"name": {
"type": "text",
"analyzer": "ik_max_word",
"search_analyzer": "ik_smart"
}
}
2) index
通过index属性指定是否索引。
默认为index=true,即要进行索引,只有进行索引才可以从索引库搜索到。
但是也有一些内容不需要索引,比如:商品图片地址只被用来展示图片,不进行搜索图片,此时可以将index设置 为false。
删除索引,重新创建映射,将pic的index设置为false,尝试根据pic去搜索,结果搜索不到数据
{
"pic": {
"type": "text",
"index": false
}
}
3)store
是否在source之外存储,每个文档索引后会在 ES中保存一份原始文档,存放在"_source"中,一般情况下不需要设置 store为true,因为在_source中已经有一份原始文档了。
keyword关键字字段
上边介绍的text文本字段在映射时要设置分词器,keyword字段为关键字字段,通常搜索keyword是按照整体搜 索,所以创建keyword字段的索引时是不进行分词的,比如:邮政编码、手机号码、身份证等。keyword字段通常 用于过虑、排序、聚合等。
测试:
更改映射:
{
"properties": {
"studymodel": {
"type": "keyword"
},
"name": {
"type": "keyword"
}
}
}
添加文档:
{
"name": "java编程基础",
"description": "java语言是世界第一编程语言,在软件开发领域使用人数最多。",
"pic": "group1/M00/00/01/wKhlQFqO4MmAOP53AAAcwDwm6SU490.jpg",
"studymodel": "201001"
}
根据name查询文档。搜索:http://localhost:9200/xc_course/_search?q=name:java name是keyword类型,所以查询方式是精确查询。
日期类型
日期类型不用设置分词器。
通常日期类型的字段用于排序。
1)format
通过format设置日期格式例子:
下边的设置允许date字段存储年月日时分秒、年月日及毫秒三种格式
{
"properties": {
"timestamp": {
"type": "date",
"format": "yyyy‐MM‐dd HH:mm:ss||yyyy‐MM‐dd"
}
}
}
插入文档:
Post :http://localhost:9200/xc_course/doc/3
{
"name": "spring开发基础",
"description": "spring 在java领域非常流行,java程序员都在用。",
"studymodel": "201001",
"pic": "group1/M00/00/01/wKhlQFqO4MmAOP53AAAcwDwm6SU490.jpg",
"timestamp": "2018‐07‐04 18:28:58"
}
综合例子
post:http://localhost:9200/xc_course/doc/_mapping
{
"properties": {
"description": {
"type": "text",
"analyzer": "ik_max_word",
"search_analyzer": "ik_smart"
},
"name": {
"type": "text",
"analyzer": "ik_max_word",
"search_analyzer": "ik_smart"
},
"pic": {
"type": "text",
"index": false
},
"price": {
"type": "float"
},
"studymodel": {
"type": "keyword"
},
"timestamp": {
"type": "date",
"format": "yyyy‐MM‐dd HH:mm:ss||yyyy‐MM‐dd||epoch_millis"
}
}
}