vlambda博客
学习文章列表

分布式全文搜索引擎ElasticSearch

1 ElasticSearch

1.1 ES的概念和特点

ES:全文检索的框架,专门做搜索,支持分布式、集群。封装的Lucene。

特点:

  1. 原生的Lucene使用的不足,优化了Lucene的调用方式

  2. 高可用的分布式集群,处理PB级别的数据

  3. 目的是通过简单的restful API来隐藏Lucene的复杂性,从而使全文检索变得简单,达到“开瓶即饮”的效果

Lucene:全文检索,api比较麻烦,操作全文检索的最底层技术。

核心:创建索引,搜索索引

1.2 ES的对手

Solr和ES的区别:

(1) Solr重量级,支持很多种类型操作,支持分布式,它里面有很多功能,但是在实时领域上没有ES好。

(2) ES轻量级,支持json的操作格式,在实时搜索领域里面做得不错,如果想使用其他的功能,需要额外安装插件。

2 ElasticSearch安装及使用说明

2.1 安装ES

 

 

 2.2 ES交互方式客户端

(1)基于RESTful API
ES和所有客户端的交互都是使用JSON格式的数据.
其他所有程序语言都可以使用RESTful API,通过9200端口的与ES进行通信,在开发测试阶段,你可以使用你喜欢的WEB客户端, curl命令以及火狐的POSTER插件方式和ES通信。
Curl命令方式:
默认windows下不支持curl命令,在资料中有curl的工具及简单使用说明。
分布式全文搜索引擎ElasticSearch

 

 

 火狐的POSTER插件界面:
类似于Firebug,在火狐的“扩展”中搜索“POSTER”,并安装改扩展工具。

分布式全文搜索引擎ElasticSearch

 

 

 使用POSTER模拟请求的效果

分布式全文搜索引擎ElasticSearch

(2)Java API
ES为Java用户提供了两种内置客户端:
节点客户端(node client):
节点客户端以无数据节点(none data node)身份加入集群,换言之,它自己不存储任何数据,但是它知道数据在集群中的具体位置,并且能够直接转发请求到对应的节点上。
传输客户端(Transport client):
这个更轻量的传输客户端能够发送请求到远程集群。它自己不加入集群,只是简单转发请求给集群中的节点。
两个Java客户端都通过9300端口与集群交互,使用ES传输协议(ES Transport Protocol)。集群中的节点
之间也通过9300端口进行通信。如果此端口未开放,你的节点将不能组成集群。
注意:
Java客户端所在的ES版本必须与集群中其他节点一致,否则,它们可能互相无法识别。

2.3 辅助管理工具Kibana5

2.4 head工具入门 + postman

(1)进入head文件中,输入cmd,打开控制台,输入npm install进行安装。
(2)安装完成,输入命令npm run start启动服务
(3)配置允许跨域访问,在elasticsearch/config/elasticsearch.yml文件末尾加上
http.cors.enabled: true
http.cors.allow-origin: “*”
(4)重启elasticsearch服务,访问http://localhost:9100

3 ES的基本操作

3.1 ES的CRUD

分布式全文搜索引擎ElasticSearch

#新增
PUT crm
/employee/1
{
"name":"xxxx",
"age":18

}
#查询
GET crm
/employee/1

#修改
POST crm
/employee/1
{
"name":"yyyy",
"age":28

}

#删除
DELETE crm
/employee/1

#没有指定id 字段生成id
POST crm
/employee
{
"name":"yyyy",
"age":28

}

# AW8iLW
-mRN4d1HhhqMMJ
GET crm
/employee/AW8iLW-mRN4d1HhhqMMJ

GET _search

分布式全文搜索引擎ElasticSearch

3.2 ES的特殊写法

分布式全文搜索引擎ElasticSearch

# 查询所有
GET _search
#漂亮格式
GET crm
/employee/AW8iLW-mRN4d1HhhqMMJ?pretty

#指定返回的列
GET crm
/employee/AW8iLW-mRN4d1HhhqMMJ?_source=name,age

#不要元数据 只返回具体数据
GET crm
/employee/AW8iLW-mRN4d1HhhqMMJ/_source

分布式全文搜索引擎ElasticSearch

3.3 局部修改

分布式全文搜索引擎ElasticSearch

#修改 --覆盖以前json
POST crm
/employee/AW8iLW-mRN4d1HhhqMMJ
{
"name":"yyyy888"

}

#局部更新
POST crm
/employee/AW8iLW-mRN4d1HhhqMMJ/_update
{
"doc":{
"name":"baocheng"

}
}

分布式全文搜索引擎ElasticSearch

3.4 批量操作

分布式全文搜索引擎ElasticSearch

POST _bulk
{
"delete": { "_index": "xlj", "_type": "department", "_id": "123" }}
{
"create": { "_index": "xlj", "_type": "book", "_id": "123" }}
{
"title": "我发行的第一本书" }
{
"index": { "_index": "itsource", "_type": "book" }}
{
"title": "我发行的第二本书" }

# 普通查询:
GET crm
/department/id
# 批量查询:
GET xlj
/book/_mget
{
"ids" : [ "123", "AH8ht-oSqTn8hjKcHo2i" ]
}

分布式全文搜索引擎ElasticSearch

3.5 查询条件

分布式全文搜索引擎ElasticSearch

# 从第0条开始查询3条student信息
GET crm
/student/_search?size=3

# 从第2条开始查询2条student信息
GET crm
/student/_search?from=2&size=2

# 表示查询age
=15的人
GET crm
/student/_search?q=age:15


# 查询3条student的信息,他们的age范围到10到20
GET crm
/student/_search?size=3&q=age[10 TO 20]

分布式全文搜索引擎ElasticSearch

如果上面的查询涉及条件比较多,就不适合使用

4 DSL查询与过滤

4.1 什么是DSL

由ES提供丰富且灵活的查询语言叫做DSL查询(Query DSL),它允许你构建更加复杂、强大的查询。

DSL(Domain Specific Language特定领域语言)以JSON请求体的形式出现。 

DSL分成两部分:

  DSL查询

  DSL过滤

4.2 DSL过滤与DSL查询在性能上的区别

(1)过滤结果可以缓存并应用到后续请求。
(2)查询语句同时匹配文档,计算相关性,所以更耗时,且不缓存。
(3)过滤语句可有效地配合查询语句完成文档过滤。

总之在原则上,使用DSL查询做全文本搜索或其他需要进行相关性评分的场景,其它全用DSL过滤。

4.2.1 DSL查询

分布式全文搜索引擎ElasticSearch

GET crm/student/_search
{
"query": {
"match_all": {}
},
"from": 0,
"size": 3,
"_source": ["name", "age"],
"sort": [{"age": "asc"}]
}

分布式全文搜索引擎ElasticSearch

4.2.2 DSL过滤

分布式全文搜索引擎ElasticSearch

#DSL过滤 -->  name = 'tangtang'  --支持缓存
#select
* from student where name=tangtang and age = 500

GET crm
/student/_search
{
"query": {
"bool": {
"must": [
{
"match": {
"name": "tangtang"

}}
],
"filter": {
"term":{"age":500}
}
}
},
"from": 0,
"size": 3,
"_source": ["name", "age"],
"sort": [{"age": "asc"}]
}
#select
* from student where age = 500 and name != 'tangtang'


GET crm
/student/_search
{
"query": {
"bool": {
"must_not": [
{
"match": {
"name": "tangtang"

}}
],
"filter": {
"term":{"age":500}
}
}
},
"from": 0,
"size": 3,
"_source": ["name", "age"],
"sort": [{"age": "asc"}]
}

分布式全文搜索引擎ElasticSearch

5 分词器

什么叫分词:把一段话按照一定规则拆分开

为什么要分词:便于检索

分词器放入ES:

  解压ik分词器 -->在es 在plugins目录 -->创建一个IK文件夹 -->把ik插件拷贝到ik文件下面

测试ES怎么使用分词:

POST _analyze
{
"analyzer":"ik_smart",
"text":"中国驻洛杉矶领事馆遭亚裔男子枪击 嫌犯已自首"

}

7 ES集群

7.1 为什么需要集群

  • 解决单点故障问题

  • 解决高并发问题

  • 解决海量数据问题

7.2 ES集群的相关概念

分片::存储内容,主分片和从分片

node:节点,有很多类型的节点

节点属性的配置:

四种组合配置方式:

(1)node.master: true node.data: true

这种组合表示这个节点即有成为主节点的资格,又存储数据。

如果某个节点被选举成为了真正的主节点,那么他还要存储数据,这样对于这个节点的压力就比较大了。ElasticSearch默认每个节点都是这样的配置,在测试环境下这样做没问题。实际工作中建议不要这样设置,因为这样相当于主节点和数据节点的角色混合到一块了。

(2)node.master: false node.data: true

这种组合表示这个节点没有成为主节点的资格,也就不参与选举,只会存储数据。

这个节点我们称为data(数据)节点。在集群中需要单独设置几个这样的节点负责存储数据,后期提供存储和查询服务。

(3)node.master: true node.data: false

这种组合表示这个节点不会存储数据,有成为主节点的资格,可以参与选举,有可能成为真正的主节点,这个节点我们称为master节点。

(4)node.master: false node.data: false

这种组合表示这个节点即不会成为主节点,也不会存储数据,这个节点的意义是作为一个client(客户端)节点,主要是针对海量请求的时候可以进行负载均衡。

7.3 ES集群理解

7.3.1 单node环境

  • 单node环境下,创建一个index,有3个primary shard,3个replica shard

  • 集群status是yellow

  • 这个时候,只会将3个primary shard分配到仅有的一个node上去,另外3个replica shard是无法分配的

  • 集群可以正常工作,但是一旦出现节点宕机,数据全部丢失,而且集群不可用,无法承接任何请求

7.3.2 2个node环境

  • replica shard分配:3个primary shard,3个replica shard,2 node

  • primary —> replica同步

  • 读请求:primary/replica

7.4 搭建ES集群

搭建三个节点的集群

(1) 拷贝三个ES 分别取名为node1 node2 node3

(2) 修改配置

  修改内存配置 xms xmx

  配置 elasticsearch.yml

分布式全文搜索引擎ElasticSearch

# 统一的集群名
cluster.name: my
-ealsticsearch
# 当前节点名
node.name: node
-1

# 对外暴露端口使外网访问
network.host:
127.0.0.1
# 对外暴露端口
http.port:
9201
#集群间通讯端口号
transport.tcp.port:
9301
#集群的ip集合,可指定端口,默认为9300
discovery.zen.ping.unicast.hosts: [“
127.0.0.1:9301”,”127.0.0.1:9302”,”127.0.0.1:9303”]

分布式全文搜索引擎ElasticSearch

(3) 配置跨域

(4) 启动 node1 node2 node3

(5) 启动head

创建索引,指定分片(如果没有分配从分片,磁盘占用率太高,可以设置:cluster.routing.allocation.disk.threshold_enabled: false)

8 Java API

8.1 什么是JavaAPI

ES对Java提供一套操作索引库的工具包,即Java API。所有的ES操作都使用Client对象执行。
ES的Maven引入:

分布式全文搜索引擎ElasticSearch

<dependency>
<groupId>org.elasticsearch.client</groupId>
<artifactId>transport</artifactId>
<version>5.2.2</version>
</dependency>
<dependency>
<groupId>org.apache.logging.log4j</groupId>
<artifactId>log4j-api</artifactId>
<version>2.7</version>
</dependency>
<dependency>
<groupId>org.apache.logging.log4j</groupId>
<artifactId>log4j-core</artifactId>
<version>2.7</version>
</dependency>

分布式全文搜索引擎ElasticSearch

8.2 测试代码

分布式全文搜索引擎ElasticSearch

import org.elasticsearch.action.bulk.BulkRequestBuilder;
import org.elasticsearch.action.bulk.BulkResponse;
import org.elasticsearch.action.index.IndexRequest;
import org.elasticsearch.action.index.IndexRequestBuilder;
import org.elasticsearch.action.search.SearchRequestBuilder;
import org.elasticsearch.action.search.SearchResponse;
import org.elasticsearch.action.update.UpdateRequest;
import org.elasticsearch.client.transport.TransportClient;
import org.elasticsearch.common.settings.Settings;
import org.elasticsearch.common.transport.InetSocketTransportAddress;
import org.elasticsearch.index.query.BoolQueryBuilder;
import org.elasticsearch.index.query.QueryBuilder;
import org.elasticsearch.index.query.QueryBuilders;
import org.elasticsearch.search.SearchHit;
import org.elasticsearch.search.SearchHits;
import org.elasticsearch.search.sort.SortOrder;
import org.elasticsearch.transport.client.PreBuiltTransportClient;
import org.junit.Test;

import java.net.InetAddress;
import java.util.HashMap;
import java.util.List;
import java.util.Map;

public class EsTest {

/**
* 连接es服务方法 嗅探方式
*/

private TransportClient getClient() throws Exception {
Settings settings
= Settings.builder()
.put(
"client.transport.sniff", true).build();
TransportClient client
= new PreBuiltTransportClient(settings).
addTransportAddress(
new InetSocketTransportAddress(InetAddress.getByName("127.0.0.1"), 9300));
return client;
}

/**
* 新增
*/

@Test
public void testAdd() throws Exception {
TransportClient client
= getClient();
IndexRequestBuilder builder
= client.prepareIndex("crm", "user", "1");
Map map
= new HashMap();
map.put(
"name", "james");
map.put(
"age", 35);
System.out.println(builder.setSource(map).get());
client.close();
}

/**
* 查询
*/

@Test
public void testGet() throws Exception {
TransportClient client
= getClient();
System.out.println(client.prepareGet(
"crm", "user", "1").get().getSource());
client.close();
}

/**
* 修改
*/

@Test
public void testUpdate() throws Exception {
TransportClient client
= getClient();
IndexRequest indexRequest
= new IndexRequest("crm", "user", "1");
Map map
= new HashMap();
map.put(
"name", "kobe");
map.put(
"age", 18);
//不存在就新增,存在就更新

UpdateRequest upsert = new UpdateRequest("crm", "user", "1").doc(map).upsert(indexRequest);
client.update(upsert).get();
client.close();
}

/**
* 删除
*/

@Test
public void testDelete() throws Exception {
TransportClient client
= getClient();
client.prepareDelete(
"crm","user","1").get();
client.close();
}

/**
* 批量操作
*/

@Test
public void testBulk() throws Exception {
TransportClient client
= getClient();
BulkRequestBuilder bulk
= client.prepareBulk();
for (int i = 1; i < 51; i++) {
Map map
= new HashMap();
map.put(
"name", "xx" + i);
map.put(
"age", i);
bulk.add(client.prepareIndex(
"crm", "user", "" + i).setSource(map));
}
BulkResponse response
= bulk.get();
if (response.hasFailures()) {
System.out.println(
"插入失败!
");
}
client.close();
}

/**
* DSL过滤(分页,过滤,排序)
*/

@Test
public void testDsl() throws Exception {
TransportClient client
= getClient();
//得到builder

SearchRequestBuilder builder = client.prepareSearch("crm").setTypes("user");
//得到boolQuery对象

BoolQueryBuilder boolQuery = QueryBuilders.boolQuery();
//得到must

List<QueryBuilder> must = boolQuery.must();
must.add(QueryBuilders.matchAllQuery());
//添加filter过滤器

boolQuery.filter(QueryBuilders.rangeQuery("age").gte(18).lte(48));
builder.setQuery(boolQuery);
//添加分页

builder.setFrom(0);
builder.setSize(
10);
//设置排序

builder.addSort("age", SortOrder.ASC);
//设置查询字段

builder.setFetchSource(new String[]{"name","age"}, null);
//取值

SearchResponse searchResponse = builder.get();
//得到查询内容

SearchHits hits = searchResponse.getHits();
//得到命中数据,返回数组

SearchHit[] hitsHits = hits.getHits();
//循环数组,打印获取值

for (SearchHit hitsHit : hitsHits) {
System.out.println(hitsHit.getSource());
}
client.close();
}

}