# 常用选项
以下选项可以应用于所有 REST APIs 。
## 优雅的结果
当对任何请求追加`?pretty=true`时,返回的JSON将会优雅地格式化(仅用于调试!)。另一个选项是设置`?format = yaml`,这将使结果以(有时)更可读的 `yaml`格式返回。
## 人类可读的输出(Human readable output)
以适合人类的格式(例如 "exists\_time":"1h" 或者 "size":"1kb")和计算机(例如 "exists\_time\_in\_millis":"3600000" 或者 "size\_in\_bytes":"1024")返回统计信息。通过向查询字符串中添加`?human=false`可以关闭人类可读的值。当统计结果被监视工具消费而不是用于人类消费时,这将是有意义的。人性化标志的默认值是`false`。
## 日期运算
接受格式化的日期值的参数大多数都支持日期运算——譬如使用`gt`与`lt`的[范围查询](../Query_DSL/Term_level_queries/Range_Query.md),或者使用`from`与`to`的[日期范围聚合](../Aggregations/Bucket_Aggregations/Date_Range_Aggregation.md)。
表达式以锚定日期开始,可以是`now`,也可以`||`结尾的日期字符串。此锚定日期可以选择性地后跟一个或多个数学表达式:
数学表达式含义+1h加一个小时(add one hour)-1d减去一天(subtract one day)/d向下舍入到最近的一天(round down to the nearest day)所支持的时间单位不同于[持续时间支持的时间单位](#time-units)。所支持的单位是:
符号含义
* y years
* M months
* w weeks
* d days
* h hours
* H hours
* m minutes
* s seconds
下面是一些例子:
* now+1h当前时间加上一个小时,以毫秒(ms)为单位
* now+1h+1m当前时间加上一个小时一分钟,以毫秒(ms)为单位
* now+1h/d当前时间加上一个小时,向下舍入到最近的一天。
* 2015-01-01||+1M/d 加一个月,向下舍入到最近一天。
## 响应过滤(respoonse filtering)
所有REST API都支持可用于减少elasticsearch返回的`filter_path`参数。此参数是采用`,`分隔,且支持`.`符号表达:
```
GET /_search?q=elasticsearch&filter_path=took,hits.hits._id,hits.hits._score
```
响应(Responds):
```
{
"took" : 3,
"hits" : {
"hits" : [
{
"_id" : "0",
"_score" : 1.6375021
}
]
}
}
```
并且`*`通配符可以用于包括不知道确切路径的字段。例如:
```
GET /_cluster/state?filter_path=routing_table.indices.**.state
```
响应(Responds):
```
{
"routing_table": {
"indices": {
"twitter": {
"shards": {
"0": [{"state": "STARTED"}, {"state": "UNASSIGNED"}],
"1": [{"state": "STARTED"}, {"state": "UNASSIGNED"}],
"2": [{"state": "STARTED"}, {"state": "UNASSIGNED"}],
"3": [{"state": "STARTED"}, {"state": "UNASSIGNED"}],
"4": [{"state": "STARTED"}, {"state": "UNASSIGNED"}]
}
}
}
}
}
```
也可以通过使用字符`-`过滤器来排除一个或多个字段:
```
GET /_count?filter_path=-_shards
```
响应(Responds):
```
{
"count" : 5
}
```
为了更多的控制,包含和独占过滤器可以组合在同一个表达式。在这种情况下,将首先应用独占过滤器,并使用包含过滤器再次过滤:
```
GET /_cluster/state?filter_path=metadata.indices.*.state,-metadata.indices.logstash-*
```
响应(Responds):
```
{
"metadata" : {
"indices" : {
"index-1" : {"state" : "open"},
"index-2" : {"state" : "open"},
"index-3" : {"state" : "open"}
}
}
}
```
请注意, `elasticsearch`有时直接返回字段的原始值,如`_source`字段。如果要过滤`_source`字段,你需要结合`filter_path`参数来考虑已存在`_source`参数。(请参阅[Get API](../Document_APIS/Get_API.md#get-source-filtering)了解更多详细信息 ),如下所示:
```
POST /library/book?refresh
{"title": "Book #1", "rating": 200.1}
POST /library/book?refresh
{"title": "Book #2", "rating": 1.7}
POST /library/book?refresh
{"title": "Book #3", "rating": 0.1}
GET /_search?filter_path=hits.hits._source&_source=title&sort=rating:desc
```
```
{
"hits" : {
"hits" : [ {
"_source":{"title":"Book #1"}
}, {
"_source":{"title":"Book #2"}
}, {
"_source":{"title":"Book #3"}
} ]
}
}
```
## 扁平设置
`flat_settings`参数影响设置列表的呈现。当`flat_settings`设置为`true`时,结果将以扁平的格式返回:
```
GET twitter/_settings?flat_settings=true
```
返回(Returns):
```
{
"twitter" : {
"settings": {
"index.number_of_replicas": "1",
"index.number_of_shards": "1",
"index.creation_date": "1474389951325",
"index.uuid": "n6gzFZTgS664GUfx0Xrpjw",
"index.version.created": ...,
"index.provided_name" : "twitter"
}
}
}
```
当`flat_settings`设置为`false`时,设置以更易于阅读的结构化格式返回:
```
GET twitter/_settings?flat_settings=false
```
返回(Returns):
```
{
"twitter" : {
"settings" : {
"index" : {
"number_of_replicas": "1",
"number_of_shards": "1",
"creation_date": "1474389951325",
"uuid": "n6gzFZTgS664GUfx0Xrpjw",
"version": {
"created": ...
},
"provided_name" : "twitter"
}
}
}
}
```
默认情况下, `flat_settings`被设置为`false`。
## 参数(Parameters)
Rest 参数(当使用 HTTP 时,映射到 HTTP URL 参数)遵循使用下划线框的惯例。
## 布尔值(Boolean Values)
All REST APIs parameters (both request parameters and JSON body) support providing boolean "false" as the value `false` and boolean "true" as the value`true`. All other values will raise an error.
## 数值
所有REST API都支持以字符串的形式来提供数字,以支持JSON数字类型。
## 时间单位(Time units)
每当需要指定持续时间时,譬如`timeout`参数,持续时间必须指定单位,如`2d`为`2天`。支持的单位有:
符号含义
d days
h hours
m minutes
s seconds
ms milliseconds
micros microseconds
nanos nanoseconds
## 字节大小单位
每当需要指定数据的字节大小时,例如,当设置缓冲区(buffer)大小参数时,该值必须指定单位,例如`10`千字节的`10kb`。支持的单位有:
单位全称bByteskbKilobytesmbMegabytesgbGigabytestbTerabytespbPetabytes
## 无单位数量(unit-less quantities)
无单位数量意味着它们没有像“字节(bytes)”或者“赫兹(Hertz)”或者“米(meter)”或者“长吨(long tonne)” 的“单位”。 如果这些数量中的一个很大,我们将打印出来,如10,000万的 10m 或者 7,000 的 7k 。我们仍然打印 87 ,当我们的意思是 87 。这些是支持的乘数(multipliers):
符号含义SinglekKilomMegagGigatTerapPeta
## 距离单位(distance units)
无论在何处需要指定距离,例如“地理距离查询”中的距离参数,默认单位(如果没有指定)是 米(meter)。距离可以用其他单位指定,例如 “1公里(km)”或者“2公里(mi)”(2英里)。
单位的完整列表如下:
单位表示符号Milemi 或者 milesYardyd 或者 yardsFeetft 或者 feetInchin 或者 inchKilometerkm 或者 kilometersMeterm 或者 metersCentimetercm 或者 centimetersMillimetermm 或者 millimetersNautical mileNM, nmi 或者 nauticalmiles
## 模糊性(Fuzziness)
一些查询和 APIs 支持参数以允许使用模糊性参数进行不精确的模糊匹配。
当查询文本(text)或者关键字字段(keyword fields)时,模糊性被解释为 Levenshtein Edit Distance —— 需要对一个字符串进行更改以使其与另一个字符串相同的一个字符的数目。
`fuzziness`参数可以指定为:
`0, 1, 2` 最大允许 Levenshtein Edit Distance (或者编辑次数)。
`AUTO` 基于该项的长度生成编辑距离(generates an edit distance)。对于长度:
* 0..2 必须完全匹配
* 3..5 允许编辑一次(one edit allowed)
* \>5 允许编辑两次(two edits allowed)
* AUTO 一般应该是`fuzziness`的首选值。
## 启用堆栈跟踪
默认情况下,当请求返回错误时,Elasticsearch不包括错误的堆栈跟踪。您可以将`error_trace`参数设置为`true`来启用该行为。例如,默认情况下,当您向`_search`API 发送无效的`size`参数时:
```
POST /twitter/_search?size=surprise_me
```
响应看起来像下面这样:
```
{
"error" : {
"root_cause" : [
{
"type" : "illegal_argument_exception",
"reason" : "Failed to parse int parameter [size] with value [surprise_me]"
}
],
"type" : "illegal_argument_exception",
"reason" : "Failed to parse int parameter [size] with value [surprise_me]",
"caused_by" : {
"type" : "number_format_exception",
"reason" : "For input string: \"surprise_me\""
}
},
"status" : 400
}
```
但是,如果您设置`error_trace=true`:
```
POST /twitter/_search?size=surprise_me&error_trace=true
```
响应看起来像这样:
```
{
"error": {
"root_cause": [
{
"type": "illegal_argument_exception",
"reason": "Failed to parse int parameter [size] with value [surprise_me]",
"stack_trace": "Failed to parse int parameter [size] with value [surprise_me]]; nested: IllegalArgumentException..."
}
],
"type": "illegal_argument_exception",
"reason": "Failed to parse int parameter [size] with value [surprise_me]",
"stack_trace": "java.lang.IllegalArgumentException: Failed to parse int parameter [size] with value [surprise_me]\n at org.elasticsearch.rest.RestRequest.paramAsInt(RestRequest.java:175)...",
"caused_by": {
"type": "number_format_exception",
"reason": "For input string: \"surprise_me\"",
"stack_trace": "java.lang.NumberFormatException: For input string: \"surprise_me\"\n at java.lang.NumberFormatException.forInputString(NumberFormatException.java:65)..."
}
},
"status": 400
}
```
## 请求体作为查询字符串
对于不接受请求体的`non-POST`请求,你可以把请求体粘贴到查询字符串的`source`参数来执行。在使用吃方法时,需要通过`source_content_type`参数指定媒体类型来表明数据来源的格式,譬如:`application/json`。
## Content-Type自动探测
参数内容通过请求主体或者是查询字符串`source`来传递时会自动探测内容的类型(JSON、YAML、SMILE、或者CBOR)。
严格的模式可以开启禁用自动探测,然后需要在请求头的`Content-Type`中设置支持的格式。若要开启严格模式,请添加如下行到`elasticsearch.yml`文件:
```
http.content_type.required: true
```
它的默认值为false。
> my note
>
> 通用的URI参数(filter_path,flat_settings,error_trace等等)
- 入门
- 基本概念
- 安装
- 探索你的集群
- 集群健康
- 列出所有索引库
- 创建一个索引库
- 索引文档创建与查询
- 删除一个索引库
- 修改你的数据
- 更新文档
- 删除文档
- 批量处理
- 探索你的数据
- 搜索API
- 查询语言介绍
- 执行搜索
- 执行过滤
- 执行聚合
- 总结
- Elasticsearch设置
- 安装Elasticsearch
- .zip或.tar.gz文件的安装方式
- Install Elasticsearch with .zip on Windows
- Debian软件包安装方式
- RPM安装方式
- Install Elasticsearch with Windows MSI Installer
- Docker安装方式
- 配置Elasticsearch
- 安全配置
- 日志配置
- 重要的Elasticsearch配置
- 重要的系统配置
- 系统设置
- 在jvm.options中设置JVM堆大小
- 禁用swapping
- 文件描述符
- 虚拟内存
- 线程数
- DNS cache settings
- 启动前检查
- 堆大小检查
- 文件描述符检查
- 内存锁定检查
- 最大线程数检查
- 最大虚拟内存检查
- Max file size check
- 最大map数检查
- JVM Client模式检查
- 串行收集使用检查
- 系统调用过滤检查
- OnError与OnOutOfMemoryError检查
- Early-access check
- G1GC检查
- Elasticsearch停机
- Elasticsearch升级
- 滚动升级
- 全集群重启升级
- 索引重建升级
- Set up X-Pack
- Installing X-Pack
- X-Pack Settings
- Watcher Settings
- Configuring Security
- Breaking changes in 6.0
- X-Pack Breaking Changes
- 重大变化
- 6.0的重大变化
- 聚合变化
- Cat API变化
- 客户端变化
- 集群变化
- 文档API变化
- 索引变化
- 预处理变化
- 映射变化
- Packaging变化
- Percolator变化
- 插件变化
- 索引重建变化
- 信息统计变化
- DSL查询变化
- 设置变化
- 脚本变化
- API约定
- 多索引语法
- 索引库名称的日期运算
- 常用选项
- URL-based访问控制
- 文档APIs
- 读写文档
- 索引接口
- Get接口
- Delete API
- Delete By Query API
- Update API
- Update By Query API
- Multi Get API
- Bulk API
- Reindex API
- Term Vectors
- Multi termvectors API
- ?refresh
- 搜索APIs
- Search
- URI Search
- Request Body Search
- Query
- From / Size
- Sort
- Source filtering
- Fields
- Script Fields
- Doc value Fields
- Post filter
- Highlighting
- Rescoring
- Search Type
- Scroll
- Preference
- Explain
- Version
- Index Boost
- min_score
- Named Queries
- Inner hits
- Field Collapsing
- Search After
- Search Template
- Multi Search Template
- Search Shards API
- Suggesters
- Term suggester
- Phrase Suggester
- Completion Suggester
- Context Suggester
- Returning the type of the suggester
- Multi Search API
- Count API
- Validate API
- Explain API
- Profile API
- Profiling Queries
- Profiling Aggregations
- Profiling Considerations
- Field Capabilities API
- Aggregations
- Metrics Aggregations
- 平均值聚合
- 值计数聚合(Value Count Aggregation)
- Cardinality Aggregation
- Extended Stats Aggregation
- 地理边界聚合
- 地理重心聚合
- Max Aggregation
- Min Aggregation
- Percentiles Aggregation
- Percentile Ranks Aggregation
- Scripted Metric Aggregation
- Stats Aggregation
- Sum Aggregation
- Top hits Aggregation
- Value Count Aggregation
- Bucket Aggregations
- 邻接矩阵聚合
- Children Aggregation
- Date Histogram Aggregation
- Date Range Aggregation
- Significant Terms Aggregation
- Filter Aggregation(过滤器聚合)
- Filters Aggregation
- Geo Distance Aggregation(地理距离聚合) 转至元数据结尾
- GeoHash grid Aggregation(GeoHash网格聚合)
- Global Aggregation(全局聚合) 转至元数据结尾
- Histogram Aggregation
- IP Range Aggregation(IP范围聚合)
- Missing Aggregation
- Nested Aggregation(嵌套聚合)
- Range Aggregation(范围聚合)
- Reverse nested Aggregation
- Sampler Aggregation
- Significant Terms Aggregation
- Significant Text Aggregation
- Terms Aggregation
- Pipeline Aggregations
- Avg Bucket Aggregation
- Derivative Aggregation(导数聚合)
- Max Bucket Aggregation
- Min Bucket Aggregation
- Sum Bucket Aggregation
- Stats Bucket Aggregation
- Extended Stats Bucket Aggregation(扩展信息桶聚合)
- Percentiles Bucket Aggregation(百分数桶聚合)
- Moving Average Aggregation
- Cumulative Sum Aggregation(累积汇总聚合)
- Bucket Script Aggregation(桶脚本聚合)
- Bucket Selector Aggregation(桶选择器聚合)
- Serial Differencing Aggregation(串行差异聚合)
- Matrix Aggregations
- Matrix Stats
- Caching heavy aggregations
- Returning only aggregation results
- Aggregation Metadata
- Returning the type of the aggregation
- Indices APIs
- Create Index /创建索引
- Delete Index /删除索引
- Get Index /获取索引
- Indices Exists /索引存在
- Open / Close Index API /启动关闭索引
- Shrink Index /缩小索引
- Rollover Index/滚动索引
- Put Mapping /提交映射
- Get Mapping /获取映射
- Get Field Mapping /获取字段映射
- Types Exists
- Index Aliases
- Update Indices Settings
- Get Settings
- Analyze
- Explain Analyze
- Index Templates
- 索引统计信息
- 索引段
- 索引恢复
- 索引分片存储
- 清理缓存
- 刷新
- 同步刷新
- 重新加载
- 强制合并
- Cat APIs
- cat aliases
- cat allocation
- cat count
- cat fielddata
- cat health
- cat indices
- cat master
- cat nodeattrs
- cat nodes
- cat pending tasks
- cat plugins
- cat recovery
- cat repositories
- cat segments
- cat shards
- cat thread pool
- cat snapshots
- cat templates
- Cluster APIs
- 集群健康
- 集群状态
- 集群统计
- 挂起的集群任务
- 集群重新路由
- Cluster Update Settings
- Nodes Stats
- Nodes Info
- Nodes Feature Usage
- Remote Cluster Info
- Task Management API
- Nodes hot_threads
- Cluster Allocation Explain API
- Query DSL
- 查询context与过滤context
- Match All Query
- 全文搜索
- 匹配查询
- 短语匹配查询
- 短语前缀匹配查询
- 多字段查询
- 常用术语查询
- 查询语句查询
- 简单查询语句
- Term level queries
- Term Query
- Terms Query
- Range Query
- Exists Query
- Prefix Query
- Wildcard Query
- Regexp Query
- Fuzzy Query
- Type Query
- Ids Query
- 复合查询
- Constant Score 查询
- Bool 查询
- Dis Max 查询
- Function Score 查询
- Boosting 查询
- Joining queries
- Has Child Query
- Has Parent Query
- Nested Query(嵌套查询)
- Parent Id Query
- Geo queries
- GeoShape Query(地理形状查询)
- Geo Bounding Box Query(地理边框查询)
- Geo Distance Query(地理距离查询)
- Geo Polygon Query(地理多边形查询)
- Specialized queries
- More Like This Query
- Script Query
- Percolate Query
- Span queries
- Span Term 查询
- Span Multi Term 查询
- Span First 查询
- Span Near 查询
- Span Or 查询
- Span Not 查询
- Span Containing 查询
- Span Within 查询
- Span Field Masking 查询 转至元数据结尾
- Minimum Should Match
- Multi Term Query Rewrite
- Mapping
- Removal of mapping types
- Field datatypes
- Array
- Binary
- Range
- Boolean
- Date
- Geo-point datatype
- Geo-Shape datatype
- IP datatype
- Keyword datatype
- Nested datatype
- Numeric datatypes
- Object datatype
- Text
- Token数
- 渗滤型
- join datatype
- Meta-Fields
- _all field
- _field_names field
- _id field
- _index field
- _meta field
- _routing field
- _source field
- _type field
- _uid field
- Mapping parameters
- analyzer(分析器)
- normalizer(归一化)
- boost(提升)
- Coerce(强制类型转换)
- copy_to(合并参数)
- doc_values(文档值)
- dynamic(动态设置)
- enabled(开启字段)
- eager_global_ordinals
- fielddata(字段数据)
- format (日期格式)
- ignore_above(忽略超越限制的字段)
- ignore_malformed(忽略格式不对的数据)
- index (索引)
- index_options(索引设置)
- fields(字段)
- Norms (标准信息)
- null_value(空值)
- position_increment_gap(短语位置间隙)
- properties (属性)
- search_analyzer (搜索分析器)
- similarity (匹配方法)
- store(存储)
- Term_vectors(词根信息)
- Dynamic Mapping
- Dynamic field mapping(动态字段映射)
- Dynamic templates(动态模板)
- default mapping(mapping中的_default_)
- Analysis
- Anatomy of an analyzer(分析器的分析)
- Testing analyzers(测试分析器)
- Analyzers(分析器)
- Configuring built-in analyzers(配置内置分析器)
- Standard Analyzer(标准分析器)
- Simple Analyzer(简单分析器)
- 空白分析器
- Stop Analyzer
- Keyword Analyzer
- 模式分析器
- 语言分析器
- 指纹分析器
- 自定义分析器
- Normalizers
- Tokenizers(分词器)
- Standard Tokenizer(标准分词器)
- Letter Tokenizer
- Lowercase Tokenizer (小写分词器)
- Whitespace Analyzer
- UAX URL Email Tokenizer
- Classic Tokenizer
- Thai Tokenizer(泰语分词器)
- NGram Tokenizer
- Edge NGram Tokenizer
- Keyword Analyzer
- Pattern Tokenizer
- Simple Pattern Tokenizer
- Simple Pattern Split Tokenizer
- Path Hierarchy Tokenizer(路径层次分词器)
- Token Filters(词元过滤器)
- Standard Token Filter
- ASCII Folding Token Filter
- Flatten Graph Token Filter
- Length Token Filter
- Lowercase Token Filter
- Uppercase Token Filter
- NGram Token Filter
- Edge NGram Token Filter
- Porter Stem Token Filter
- Shingle Token Filter
- Stop Token Filter
- Word Delimiter Token Filter
- Word Delimiter Graph Token Filter
- Stemmer Token Filter
- Stemmer Override Token Filter
- Keyword Marker Token Filter
- Keyword Repeat Token Filter
- KStem Token Filter
- Snowball Token Filter
- Phonetic Token Filter
- Synonym Token Filter
- Synonym Graph Token Filter
- Compound Word Token Filters
- Reverse Token Filter
- Elision Token Filter
- Truncate Token Filter
- Unique Token Filter
- Pattern Capture Token Filter
- Pattern Replace Token Filter
- Trim Token Filter
- Limit Token Count Token Filter
- Hunspell Token Filter
- Common Grams Token Filter
- Normalization Token Filter
- CJK Width Token Filter
- CJK Bigram Token Filter
- Delimited Payload Token Filter
- Keep Words Token Filter
- Keep Types Token Filter
- Classic Token Filter
- Apostrophe Token Filter
- Decimal Digit Token Filter
- Fingerprint Token Filter
- Minhash Token Filter
- Character Filters(字符过滤器)
- HTML Strip Character Filter
- Mapping Character Filter
- Pattern Replace Character Filter
- 模块
- Cluster
- 集群级路由和碎片分配
- 基于磁盘的分片分配
- 分片分配awareness
- 分片分配过滤
- Miscellaneous cluster settings
- Scripting
- Painless Scripting Language
- Lucene Expressions Language
- Advanced scripts using script engines
- Snapshot And Restore
- Thread Pool
- Index Modules(索引模块)
- 预处理节点
- Pipeline Definition
- Ingest APIs
- Put Pipeline API
- Get Pipeline API
- Delete Pipeline API
- Simulate Pipeline API
- Accessing Data in Pipelines
- Handling Failures in Pipelines
- Processors
- Monitoring Elasticsearch
- X-Pack APIs
- X-Pack Commands
- How To
- Testing(测试)
- Glossary of terms
- Release Notes
- X-Pack Release Notes