ThinkChat2.0新版上线,更智能更精彩,支持会话、画图、阅读、搜索等,送10W Token,即刻开启你的AI之旅 广告
## 本解决方案的前提是在docker环境下 ### 错误详情: `[type=circuit_breaking_exception, reason=[parent] Data too large, data for [<http_request>] would be [125643918/119.8mb], which is larger than the limit of [90832896/86.6mb], real usage: [125639936/119.8mb], new bytes reserved: [3982/3.8kb], usages [request=0/0b, fielddata=0/0b, in_flight_requests=3982/3.8kb, accounting=15713/15.3kb]] ElasticsearchStatusException[Elasticsearch exception [type=circuit_breaking_exception, reason=[parent] Data too large, data for [<http_request>] would be [125643918/119.8mb],` 在这里找到了3个数值 Data too large, data for \[\] would be \[125643918/119.8mb\] 这个就是上限内存(缺省是它是ES最大内存的95%) real usage: \[125639936/119.8mb\], ES已经使用的内存 new bytes reserved: \[3982/3.8kb\] 本次查询需要的内存 自己也百度了一些解答,如下: ### 1。增加ES的JVM内存大小,文件在 /config/jvm.options 把这两个值改大一点 \-Xms1g \-Xmx1g 改了之后使用docker restart elasticsearch 重启,还是不行,并且报的数值都差不多,说明内存根本没有生效 ### 2。修改缓冲区 ``` PUT /_cluster/settings { "persistent": { "indices.breaker.fielddata.limit": "60%" } } PUT /_cluster/settings { "persistent": { "indices.breaker.request.limit": "40%" } } PUT /_cluster/settings { "persistent": { "indices.breaker.total.limit": "70%" } } ``` 也没用 ### 解决办法 思路1,我想了一下会不会是docker限制了容器的内存大小,查阅资料后发现docker默认不限制容器内存大小的。 思路2,我百度了docker查看启动容器的命令的指令`ps -fe`,发现启动ES的命令行中发现了 -Xms64m -Xmx128m ,然后结合内存不够的数值,也差不多能对上,那肯定就是docker启动命令的问题了,虽然你修改了ES在JVM文件中的内存大小,但是可能 docker restart 重启的时候还是用的docker run的指令,所以导致设置的内存大小没有应用成功。 解决: docker stop 容器 停止容器 docker rm 容器 删除容器 最后在命令行重新指定内存大小 docker run --name elasticsearch -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" -e ES_JAVA_OPTS="-Xms3g -Xmx3g" -v /mydata/elasticsearch/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml -v /mydata/elasticsearch/data:/usr/share/elasticsearch/data -v /mydata/elasticsearch/plugins:/usr/share/elasticsearch/plugins -d elasticsearch:7.4.2