>[success] ## **Analyzer(分词器)的作用是把一段文本中的词按一定规则进行切分**
> **分词器的一般工作流程:**
> 1、切分关键词
> 2、对于英文单词,把所有字母转为小写(搜索时不区分大小写)
## **一、下载ik分词器**
不同的es有不同的ik版本对应,可在`releases`找到对应的版本,直接下载zip文件即可。
下载地址:[https://github.com/medcl/elasticsearch-analysis-ik/releases](https://github.com/medcl/elasticsearch-analysis-ik/releases) ,这里你需要根据你的Es的版本来下载对应版本的IK,这里我使用的是7.6.2的ES,所以就下载ik-7.6.2.zip的文件。
![](https://img.kancloud.cn/8c/30/8c30888160249557275da9ac1142a1f9_1013x353.png)
## **二、解压-->将文件复制到 es的安装目录/plugins/ik目录**
![](https://img.kancloud.cn/e4/ac/e4ac09697a02117fe6039b959515b515_631x271.png)
## **三、重启ElasticSearch,测试效果**
未使用ik分词器的时候测试分词效果:
```
POST http://IP:9200/shop/_analyze
{
"text": "全文检索架构"
}
```
结果如下:
![](https://img.kancloud.cn/b9/97/b99796ff6de695792e5de0325b61fa4f_583x771.png)
使用IK分词器之后,结果如下:
```
POST http://IP:9200/shop/_analyze
{
"analyzer": "ik_max_word",
"text": "全文检索架构"
}
```
结果如下:
![](https://img.kancloud.cn/b9/59/b95907962fd940f7a62bb6b457458dcf_604x496.png)
>[danger] ## **注意**
1. 如果未安装ik分词器,那么你写 "analyzer": "ik_max_word",程序就会报错,因为你没有安装ik分词器
2. 如果你安装了ik分词器之后,你不指定分词器,不加上 "analyzer": "ik_max_word" 这句话,那么其分词效果跟你没有安装ik分词器是一致的,也是分词成每个汉字。
- 前言
- ElasticSearch7.6.2 安装
- Elasticsearch7.6.2 Postman操作总结
- Elasticsearch配置IK中文分词器
- IK中文分词器模式详解及最佳实践
- IK自定义词库及远程热更新
- ElasticSearch7.6.2 设置用户认证
- Elasticsearch-head插件
- Elasticsearch SSL证书的生成及使用
- ElasticSearch 集群搭建
- Kibana开源分析及管理可视化
- Logstash 收集、解析和转换日志
- Logstash 简介与安装
- Logstash 采集、过滤、分析日志数据
- MySQL8 数据增量同步到ElasticSearch
- Logstash 采集、过滤MySQL8单表全量数据
- MySQL8 单表数据增量同步ES
- MySQL8 多表数据增量同步ES
- Elasticsearch7.6.2 查询总结
- 结构化检索
- 精确值检索
- 范围检索
- 前缀检索
- 通配符检索
- Ids检索
- 全文检索
- 匹配检索
- 多字段匹配检索
- Elasticsearch7.6.2 TP6使用详解
- 创建索引
- 创建映射
- 添加文档
- 查询文档: 条件查询、复合查询
- 高亮查询
- 更新文档
- 删除文档
- 查询映射
- 删除索引
- 安装软件、源代码下载
- 解压密码