# 1.2中文分词
Elasticsearch中,内置了很多分词器(analyzers),例如standard (标准分词器)、english (英文分词)和chinese (中文分词,但是分词效果不好)
安装中文分词ik分词器
```
./bin/elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v6.2.2/elasticsearch-analysis-ik-6.2.2.zip
```
上面的版本必须和elasticsearch版本一致
Elastic 的分词器称为 analyzer。我们对每个字段指定分词器。
如:
```
"user": {
"type": "text",
"analyzer": "ik_max_word", #字段的文本进行分词的分词器
"search_analyzer": "ik_max_word" #搜索词进行分词的分词器
}
```
ik_max_word 和 ik_smart 什么区别?
>ik_max_word: 会将文本做最细粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,中华人民,中华,华人,人民共和国,人民,人,民,共和国,共和,和,国国,国歌”,会穷尽各种可能的组合;
ik_smart: 会做最粗粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,国歌”。
测试:
```
POST _analyze?pretty
{
"analyzer": "ik_smart",
"text": "中华人民共和国万岁"
}
```
![](/assets/18.png)
详细参考:
[GitHub开源elasticsearch-analysis-ik分词](https://github.com/medcl/elasticsearch-analysis-ik)
- 目录
- 前言
- ElasticSearch基础
- 基础概念
- 生产环境配置
- ElasticSearch插件
- ElasticSearch-head插件
- 中文分词
- ElasticSearch安全插件x-pack
- ElasticSearch查询
- ElasticSearch语法
- 创建索引
- 新增文档
- 修改文档
- 查询文档
- 简单查询
- 基础查询
- 聚合查询
- 删除文档
- ElasticSearch高级查询
- filter语法
- 关联查询
- SpringBoot集成ES的操作
- java操作ES
- Spring-data-elasticsearch操作ES
- SpringBoot性能优化
- ElasticSearch的优化
- ElasticSearch系统优化
- ElasticSearch数据的备份与恢复
- ElasticSearch性能调优
- ElasticSearch集群监控
- ElasticSearch问题汇总
- ElasticSearch问题
- ElasticSearch学习网站