[TOC]
# 简介
Lettuce 是一个可伸缩的线程安全的 Redis 客户端,支持同步、异步和响应式模式。多个线程可以共享一个连接实例,而不必担心多线程并发问题。它基于优秀 netty NIO 框架构建,支持 Redis 的高级功能,如 Sentinel,集群,流水线,自动重新连接和 Redis 数据模型。
# redis单机情况
目前,Lettuce 官方发布的最新的版本为[5.0.4](https://lettuce.io/core/5.0.4.RELEASE/api/),自 5.X 开始,Lettuce 进行了全面重构,与之前的版本相差较大,甚至连包名都全然不同(点击可查看[5.0.4](https://lettuce.io/core/5.0.4.RELEASE/api/)和[4.4.5](https://lettuce.io/lettuce-4/4.4.5.Final/api/)版本),本文基于最新的版本 5.0.4 介绍 Lettuce 的用法,pom 文件中添加 Lettuce 依赖如下:
~~~
<dependency>
<groupId>io.lettuce</groupId>
<artifactId>lettuce-core</artifactId>
<version>5.0.4.RELEASE</version>
</dependency>
~~~
~~~
import io.lettuce.core.RedisClient;
import io.lettuce.core.RedisURI;
import io.lettuce.core.api.StatefulRedisConnection;
import io.lettuce.core.api.sync.RedisCommands;
public class Single
{
public static void main(String[] args)
{
// 利用redis-server所绑定的IP和Port创建URI,
RedisURI redisURI = RedisURI.create("127.0.0.1", 6379);
// 创建集Redis单机模式客户端
RedisClient redisClient = RedisClient.create(redisURI);
// 开启连接
StatefulRedisConnection<String, String> connect = redisClient.connect();
RedisCommands<String, String> cmd = connect.sync();
// set操作,成功则返回OK
cmd.set("key", "value-test");
// get操作,成功命中则返回对应的value,否则返回null
cmd.get("key");
// 删除指定的key
cmd.del("key");
// 获取redis-server信息,内容极为丰富
cmd.info();
// 列表操作
String[] valuelist = {"China","Americal","England"};
// 将一个或多个值插入到列表头部,此处插入多个
cmd.lpush("listName", valuelist);
// 移出并获取列表的第一个元素
System.out.println(cmd.lpop("listName"));
// 获取列表长度
System.out.println(cmd.llen("listName"));
// 通过索引获取列表中的元素
System.out.println(cmd.lindex("listName", 1));
}
}
~~~
注意
如果 redis-server 设置了访问密码,在进行缓存读写操作之前需要进行鉴权,代码片段如下:
~~~
// 开启连接
StatefulRedisConnection<String, String> connect = redisClient.connect();
RedisCommands<String, String> cmd = connect.sync();
// 如果redis-server设置了访问密码,则需鉴权,否则不可访问
cmd.auth("my-password");
// set操作,成功则返回OK
cmd.set("key", "value-test");
~~~
# redis集群模式
首先介绍一个集群模式下的实例,对比单机模式,读者不难发现,除了创建客户端差别明显外,其它部分几无差别
~~~
import java.util.ArrayList;
import java.util.List;
import io.lettuce.core.RedisURI;
import io.lettuce.core.cluster.RedisClusterClient;
import io.lettuce.core.cluster.api.StatefulRedisClusterConnection;
import io.lettuce.core.cluster.api.sync.RedisClusterCommands;
public class Cluster
{
public static void main(String[] args)
{
// 利用redis-server所绑定的IP和Port创建URI,
List<RedisURI> redisURIList = new ArrayList<RedisURI>();
String[] ipSet = {"100.x.x.152","100.x.x.153","100.x.x.154"};
int port = 6379;
for (int i=0; i<3; i++)
{
RedisURI temp = RedisURI.create(ipSet[i], port);
redisURIList.add(temp);
}
// 创建集Redis集群模式客户端
RedisClusterClient redisClusterClient = RedisClusterClient.create(redisURIList);
// 连接到Redis集群
StatefulRedisClusterConnection<String, String> clusterCon = redisClusterClient.connect();
// 获取集群同步命令对象
RedisClusterCommands<String, String> commands = clusterCon.sync();
// set操作,成功则返回OK
commands.set("key", "value-test");
// get操作,成功命中则返回对应的value,否则返回null
commands.get("key");
// 删除指定的key
commands.del("key");
// 获取redis-server信息,内容极为丰富
commands.info();
// 列表操作
String[] valuelist = {"China","Americal","England"};
// 将一个或多个值插入到列表头部,此处插入多个
commands.lpush("listName", valuelist);
// 移出并获取列表的第一个元素
commands.lpop("listName");
// 获取列表长度
commands.llen("listName");
// 通过索引获取列表中的元素
commands.lindex("listName", 1);
}
}
~~~
## 重要接口说明
与单机模式相比,集群模式下命令集要丰富得多,如下图所示, Lettuce 提供的方法可支持集群模式下的所有命令。其中,有几个重要的方法读者需要掌握:clusterAddSlots, clusterFailover, clusterForget, clusterInfo, clusterMeet, clusterNodes 及clusterReplicate
![](https://img.kancloud.cn/c6/8f/c68fa70fc529cffdc25920f5230760a4_614x564.png)
1. clusterMeet(String ip, int port):以当前节点为基准,将 ip 和 port 所对应的节点纳入集群;
2. clusterAddSlots(int ...slots):为当前节点指派 slot,只有被指派 slot 的节点才是真正意义上的 master;
3. clusterReplicate(String nodeId):将当前节点设置为 nodeId 所对应的主节点的从;
4. clusterFailover(boolean force):发起故障倒换,将当前节点升为主节点,当前节点原本对应的主节点则降为从节点;
5. clusterForget(String nodeId):将 nodeId 所对应的节点从集群中删除;
6. clusterInfo():获取集群运行状态信息;
7. clusterNodes():获取集群节点的详细信息;
## 小技巧
使用 Lettuce时,创建客户端之后还需连接到集群方可,分别调用了 create() 方法和 connect() 方法,如下代码片段所示:
~~~
// 创建集Redis集群模式客户端
RedisClusterClient redisClusterClient = RedisClusterClient.create(redisURIList);
// 连接到Redis集群
StatefulRedisClusterConnection<String, String> clusterCon = redisClusterClient.connect();
~~~
不知读者是否思考过一个问题:集群连接和单机连接到底有什么区别?为什么一个集群连接就可以操作集群?事实上,所谓集群连接本质上就是一个单机连接的集合,即集群连接包含了到集群中所有节点的连接(单机连接)。既然如此,在集群模式下,当我们需要用到单机连接时,就不必再创建连接了,而是直接从集群连接中“取”出需要的单机连接,这是非常有益的,可以极大的减少资源的消耗,提升性能。如下实例:
~~~
// 创建集Redis集群模式客户端
RedisClusterClient redisClusterClient = RedisClusterClient.create(redisURIList);
// 连接到Redis集群
StatefulRedisClusterConnection<String, String> clusterCon = redisClusterClient.connect();
// 从集群连接中取出单机连接
// 方式1:根据ip和端口获取单机连接
StatefulRedisConnection<String, String> conn1 = clusterCon.getConnection(host, port);
// 方式2:根据nodeId获取单机连接
StatefulRedisConnection<String, String> conn2 = clusterCon.getConnection(nodeId);
~~~
# Lettuce 创建 Redis 集群
Redis 集群模式至少需要 3 个主节点,作为举例,本文搭建一个 3 主 3 从的精简集群,麻雀虽小,五脏俱全。主从关系如下图所示,其中 M 代码 Master 节点,S 代表 Slave 节点,A-M 和 A-S 为一对主从节点。
![](https://img.kancloud.cn/5a/fb/5afb0cd7cebb8bc40ae6ae4aeaca0cb0_601x357.png)
由于笔者只有一台物理机,因此在同一台机器上分别启动 6 个 redis-server 进程以创建 3 主 3 从Redis集群,6 个 redis-server 进程分别绑定端口号为 6379,6380,6381,6382,6383,6384
## Redis 集群创建的步骤
**(1)相互感知,初步形成集群**
在上文中,我们已经成功拉起了 6 个 redis-server 进程,每个进程视为一个节点,这些节点仍处于孤立状态,它们相互之间无法感知对方的存在,既然要创建集群,首先需要让这些孤立的节点相互感知,形成一个集群;
**(2)分配 Slot 给期望的主节点**
形成集群之后,仍然无法提供服务,Redis 集群模式下,数据存储于 16384 个 Slot 中,我们需要将这些 Slot 指派给期望的主节点。何为期望呢?我们有 6 个节点,3 主 3 备,我们只能将 Slot 指派给 3 个主节点,至于哪些节点为主节点,我们可以自定义。
**(3)设置从节点**
Slot 分配完成后,被分配 Slot 的节点将成为真正可用的主节点,剩下的没有分到 Slot 的节点,即便状态标志为 Master,实际上也不能提供服务。接下来,出于可靠性的考量,我们需要将这些没有被指派 Slot 的节点指定为可用主节点的从节点(Slave)。
经过上述三个步骤,一个精简的 3 主 3 从 Redis 集群就搭建完成了。
## 基于 Lettuce 的创建集群代码
根据上述步骤,基于 Lettuce 创建集群的代码如下(仅供入门参考):
~~~
import java.util.ArrayList;
import java.util.List;
import io.lettuce.core.RedisClient;
import io.lettuce.core.RedisCommandTimeoutException;
import io.lettuce.core.RedisConnectionException;
import io.lettuce.core.RedisException;
import io.lettuce.core.RedisURI;
import io.lettuce.core.api.StatefulRedisConnection;
public class CreateCluster {
public static void main(String[] args) throws InterruptedException {
createCluster();
}
private static void createCluster() throws InterruptedException {
// 初始化集群节点列表,并指定主节点列表和从节点列表
List<ClusterNode> clusterNodeList = new ArrayList<ClusterNode>();
List<ClusterNode> masterNodeList = new ArrayList<ClusterNode>();
List<ClusterNode> slaveNodeList = new ArrayList<ClusterNode>();
String[] endpoints = {"127.0.0.1:6379", "127.0.0.1:6380", "127.0.0.1:6381"
, "127.0.0.1:6382", "127.0.0.1:6383", "127.0.0.1:6384"};
int index = 0;
for (String endpoint : endpoints) {
String[] ipAndPort = endpoint.split(":");
ClusterNode node = new ClusterNode(ipAndPort[0], Integer.parseInt(ipAndPort[1]));
clusterNodeList.add(node);
// 将6379,6380,6381设置为主节点,其余为从节点
if (index < 3) {
masterNodeList.add(node);
} else {
slaveNodeList.add(node);
}
index++;
}
// 分别与各个Redis节点建立通信连接
for (ClusterNode node : clusterNodeList) {
RedisURI redisUri = RedisURI.Builder.redis(node.getHost(), node.getPort()).build();
RedisClient redisClient = RedisClient.create(redisUri);
try {
StatefulRedisConnection<String, String> connection = redisClient.connect();
node.setConnection(connection);
} catch (RedisException e) {
System.out.println("connection failed-->" + node.getHost() + ":" + node.getPort());
}
}
// 执行cluster meet命令是各个孤立的节点相互感知,初步形成集群。
// 只需以一个节点为基准,让所有节点与之meet即可
ClusterNode firstNode = null;
for (ClusterNode node : clusterNodeList) {
if (firstNode == null) {
firstNode = node;
} else {
try {
node.getConnection().sync().clusterMeet(firstNode.getHost(), firstNode.getPort());
} catch (RedisCommandTimeoutException | RedisConnectionException e) {
System.out.println("meet failed-->" + node.getHost() + ":" + node.getPort());
}
}
}
// 为主节点指派slot,将16384个slot分成三份:5461,5461,5462
int[] slots = {0, 5460, 5461, 10921, 10922, 16383};
index = 0;
for (ClusterNode node : masterNodeList) {
node.setSlotsBegin(slots[index]);
index++;
node.setSlotsEnd(slots[index]);
index++;
}
// 通过与各个主节点的连接,执行addSlots命令为主节点指派slot
System.out.println("Start to set slots...");
for (ClusterNode node : masterNodeList) {
try {
node.getConnection().sync().clusterAddSlots(createSlots(node.getSlotsBegin(), node.getSlotsEnd()));
} catch (RedisCommandTimeoutException | RedisConnectionException e) {
System.out.println("add slots failed-->" + node.getHost() + ":" + node.getPort());
}
}
// 延时5s,等待slot指派完成
sleep(5000);
// 为已经指派slot的主节点设置从节点,6379,6380,6381分别对应6382,6383,6384
index = 0;
for (ClusterNode node : slaveNodeList) {
try {
node.getConnection().sync().clusterReplicate(masterNodeList.get(index).getMyId());
} catch (RedisCommandTimeoutException | RedisConnectionException e) {
System.out.println("replicate failed-->" + node.getHost() + ":" + node.getPort());
}
}
// 关闭连接,销毁客户端,释放资源
for (ClusterNode node : clusterNodeList) {
node.getConnection().close();
node.getClient().shutdown();
}
}
public static int[] createSlots(int from, int to) {
int[] result = new int[to - from + 1];
int counter = 0;
for (int i = from; i <= to; i++) {
result[counter++] = i;
}
return result;
}
}
~~~
~~~
//定义集群节点描述类
class ClusterNode {
private String host;
private int port;
private int slotsBegin;
private int slotsEnd;
private String myId;
private String masterId;
private StatefulRedisConnection<String, String> connection;
private RedisClient redisClient;
public ClusterNode(String host, int port) {
this.host = host;
this.port = port;
this.slotsBegin = 0;
this.slotsEnd = 0;
this.myId = null;
this.masterId = null;
}
public String getHost() {
return host;
}
public int getPort() {
return port;
}
public void setMaster(String masterId) {
this.masterId = masterId;
}
public String getMaster() {
return masterId;
}
public void setMyId(String myId) {
this.myId = myId;
}
public String getMyId() {
return myId;
}
public void setSlotsBegin(int first) {
this.slotsBegin = first;
}
public void setSlotsEnd(int last) {
this.slotsEnd = last;
}
public int getSlotsBegin() {
return slotsBegin;
}
public int getSlotsEnd() {
return slotsEnd;
}
public void setConnection(StatefulRedisConnection<String, String> connection) {
this.connection = connection;
}
public void setClient(RedisClient client) {
this.redisClient = client;
}
public StatefulRedisConnection<String, String> getConnection() {
return connection;
}
public RedisClient getClient() {
return redisClient;
}
}
~~~
## Lettuce方法获取并解析集群状态信息
Lettuce 提供了与 Redis 的 cluster info,cluster nodes 及 info 命令对应的方法,分别为:clusterInfo(), clusterNodes()和info(),是不是觉得很亲切?
仅仅只是获取信息还不够,如此复杂的信息,虽然人可以一眼看出要点,但用程序来解析却是一件很麻烦的事情。Lettuce 已经考虑到了这一点,为此提供了专门的方法来解析获取到的集群节点信息,以 clusterNodes() 为例:
![](https://img.kancloud.cn/d8/fe/d8fe5c8807af858710d27c01e45d763b_643x156.png)
**例子**
一个可用的 Redis 集群,其 16384 个 slot 必须全部处于正常工作状态,换句话说,这些 slots 对应的 master 必须是正常的。以下我们通过解析 clusterNodes() 方法获取的信息来判断集群状态是否正常,如果不正常,还可以进一步识别出不正常的节点。
**注意**
下面的程序仅仅是举例,事实上,通过解析 clusterNodes() 方法获取的信息可以获取集群节点的运行状态,主从关系,slot 分布等重要信息。
![](https://img.kancloud.cn/bc/70/bc706124c35f5a7e67b10d0d5893616a_642x393.png)
**例子的完整程序**
~~~
import java.util.ArrayList;
import java.util.List;
import io.lettuce.core.RedisURI;
import io.lettuce.core.cluster.RedisClusterClient;
import io.lettuce.core.cluster.api.StatefulRedisClusterConnection;
import io.lettuce.core.cluster.api.sync.RedisClusterCommands;
import io.lettuce.core.cluster.models.partitions.ClusterPartitionParser;
import io.lettuce.core.cluster.models.partitions.Partitions;
import io.lettuce.core.cluster.models.partitions.RedisClusterNode;
public class ClusterState {
public static void main(String[] args) {
// 利用redis-server所绑定的IP和Port创建URI,
List<RedisURI> redisURIList = new ArrayList<RedisURI>();
// 笔者在一台物理机上启动6个redis-server进程,ip均为127.X,端口为6379~6384
String ip = "127.0.0.1";
int port = 6379;
for (int i = 0; i < 6; i++) {
RedisURI temp = RedisURI.create(ip, port + i);
redisURIList.add(temp);
}
// 创建集Redis集群模式客户端
RedisClusterClient redisClusterClient = RedisClusterClient.create(redisURIList);
// 连接到Redis集群
StatefulRedisClusterConnection<String, String> clusterCon = redisClusterClient.connect();
// 获取集群同步命令对象
RedisClusterCommands<String, String> commands = clusterCon.sync();
// 获取集群节点信息并解析
Partitions partitions = ClusterPartitionParser.parse(commands.clusterNodes());
int slotsSize = 0;
for (RedisClusterNode partition : partitions) {
if (partition.getFlags().contains(RedisClusterNode.NodeFlag.FAIL)
|| partition.getFlags().contains(RedisClusterNode.NodeFlag.EVENTUAL_FAIL)
|| partition.getFlags().contains(RedisClusterNode.NodeFlag.NOADDR)) {
System.out.println("The node's state is not normal:" + partition.getUri());
continue;
}
slotsSize += partition.getSlots().size();
}
if (slotsSize < 16384) {
System.out.println("Cluster_slots_assigned is:" + slotsSize);
} else {
System.out.println("Cluster_state is OK.");
}
}
}
~~~
# 遇到的问题
**堆内存溢出事件**
在实际应用场景下,Redis 集群可能出现节点故障下线、新节点加入、主从倒换等事件,这些事件都会导致 Redis 集群拓扑结构改变,作为客户端的 Lettuce 自然也需要刷新保存的拓扑结构甚至重新建立连接,否则,客户端与服务端之间的通道可能无法工作。
出于对上述原因考虑,为提高可用性,笔者曾经主导过的一个项目通过一个线程来定时检测连接是否可用,如果不可用便重建连接。但是,当时犯了一个错误:重建连接时,仅仅关闭了旧的连接,却没有销毁客户端,而客户端是极为占用资源的。
由于连接不可用的场景并不多,上述问题一直处于潜伏状态,直到有一天网络出现问题,因连接不可用而一次次重建连接,同时重建了客户端。一段时间后,Lettuce 相关的线程竟堆积了近 300 个,而相关进程预设的内存不过 2G,进而出现了内存溢出。
**规避方法:**
简而言之,对于不再使用的客户端和连接一定要显示的关闭,如下代码所示:
![](https://img.kancloud.cn/62/c1/62c1a04d1e2f8eb94fa8b28b1ceb4924_643x158.png)
- 基础
- 编译和安装
- classpath到底是什么?
- 编译运行
- 安装
- sdkman多版本
- jabba多版本
- java字节码查看
- 数据类型
- 简介
- 整形
- char和int
- 变量和常量
- 大数值运算
- 基本类型包装类
- Math类
- 内存划分
- 位运算符
- 方法相关
- 方法重载
- 可变参数
- 方法引用
- 面向对象
- 定义
- 继承和覆盖
- 接口和抽象类
- 接口定义增强
- 内建函数式接口
- 多态
- 泛型
- final和static
- 内部类
- 包
- 修饰符
- 异常
- 枚举类
- 代码块
- 对象克隆
- BeanUtils
- java基础类
- scanner类
- Random类
- System类
- Runtime类
- Comparable接口
- Comparator接口
- MessageFormat类
- NumberFormat
- 数组相关
- 数组
- Arrays
- string相关
- String
- StringBuffer
- StringBuilder
- 正则
- 日期类
- Locale类
- Date
- DateFormat
- SimpleDateFormat
- Calendar
- 新时间日期API
- 简介
- LocalDate,LocalTime,LocalDateTime
- Instant时间点
- 带时区的日期,时间处理
- 时间间隔
- 日期时间校正器
- TimeUnit
- 用yyyy
- 集合
- 集合和迭代器
- ArrayList集合
- List
- Set
- 判断集合唯一
- Map和Entry
- stack类
- Collections集合工具类
- Stream数据流
- foreach不能修改内部元素
- of方法
- IO
- File类
- 字节流stream
- 字符流Reader
- IO流分类
- 转换流
- 缓冲流
- 流的操作规律
- properties
- 序列化流与反序列化流
- 打印流
- System类对IO支持
- commons-IO
- IO流总结
- NIO
- 异步与非阻塞
- IO通信
- Unix的IO模型
- epoll对于文件描述符操作模式
- 用户空间和内核空间
- NIO与普通IO的主要区别
- Paths,Path,Files
- Buffer
- Channel
- Selector
- Pipe
- Charset
- NIO代码
- 多线程
- 创建线程
- 线程常用方法
- 线程池相关
- 线程池概念
- ThreadPoolExecutor
- Runnable和Callable
- 常用的几种线程池
- 线程安全
- 线程同步的几种方法
- synchronized
- 死锁
- lock接口
- ThreadLoad
- ReentrantLock
- 读写锁
- 锁的相关概念
- volatile
- 释放锁和不释放锁的操作
- 等待唤醒机制
- 线程状态
- 守护线程和普通线程
- Lamda表达式
- 反射相关
- 类加载器
- 反射
- 注解
- junit注解
- 动态代理
- 网络编程相关
- 简介
- UDP
- TCP
- 多线程socket上传图片
- NIO
- JDBC相关
- JDBC
- 预处理
- 批处理
- 事务
- properties配置文件
- DBUtils
- DBCP连接池
- C3P0连接池
- 获得MySQL自动生成的主键
- Optional类
- Jigsaw模块化
- 日志相关
- JDK日志
- log4j
- logback
- xml
- tomcat
- maven
- 简介
- 仓库
- 目录结构
- 常用命令
- 生命周期
- idea配置
- jar包冲突
- 依赖范围
- 私服
- 插件
- git-commit-id-plugin
- maven-assembly-plugin
- maven-resources-plugin
- maven-compiler-plugin
- versions-maven-plugin
- maven-source-plugin
- tomcat-maven-plugin
- 多环境
- 自定义插件
- stream
- swing
- json
- jackson
- optional
- junit
- gradle
- servlet
- 配置
- ServletContext
- 生命周期
- HttpServlet
- request
- response
- 乱码
- session和cookie
- cookie
- session
- jsp
- 简介
- 注释
- 方法,成员变量
- 指令
- 动作标签
- 隐式对象
- EL
- JSTL
- javaBean
- listener监听器
- Filter过滤器
- 图片验证码
- HttpUrlConnection
- 国际化
- 文件上传
- 文件下载
- spring
- 简介
- Bean
- 获取和实例化
- 属性注入
- 自动装配
- 继承和依赖
- 作用域
- 使用外部属性文件
- spel
- 前后置处理器
- 生命周期
- 扫描规则
- 整合多个配置文件
- 注解
- 简介
- 注解分层
- 类注入
- 分层和作用域
- 初始化方法和销毁方法
- 属性
- 泛型注入
- Configuration配置文件
- aop
- aop的实现
- 动态代理实现
- cglib代理实现
- aop名词
- 简介
- aop-xml
- aop-注解
- 代理方式选择
- jdbc
- 简介
- JDBCTemplate
- 事务
- 整合
- junit整合
- hibernate
- 简介
- hibernate.properties
- 实体对象三种状态
- 检索方式
- 简介
- 导航对象图检索
- OID检索
- HQL
- Criteria(QBC)
- Query
- 缓存
- 事务管理
- 关系映射
- 注解
- 优化
- MyBatis
- 简介
- 入门程序
- Mapper动态代理开发
- 原始Dao开发
- Mapper接口开发
- SqlMapConfig.xml
- map映射文件
- 输出返回map
- 输入参数
- pojo包装类
- 多个输入参数
- resultMap
- 动态sql
- 关联
- 一对一
- 一对多
- 多对多
- 整合spring
- CURD
- 占位符和sql拼接以及参数处理
- 缓存
- 延迟加载
- 注解开发
- springMVC
- 简介
- RequestMapping
- 参数绑定
- 常用注解
- 响应
- 文件上传
- 异常处理
- 拦截器
- springBoot
- 配置
- 热更新
- java配置
- springboot配置
- yaml语法
- 运行
- Actuator 监控
- 多环境配置切换
- 日志
- 日志简介
- logback和access
- 日志文件配置属性
- 开机自启
- aop
- 整合
- 整合Redis
- 整合Spring Data JPA
- 基本查询
- 复杂查询
- 多数据源的支持
- Repository分析
- JpaSpecificationExecutor
- 整合Junit
- 整合mybatis
- 常用注解
- 基本操作
- 通用mapper
- 动态sql
- 关联映射
- 使用xml
- spring容器
- 整合druid
- 整合邮件
- 整合fastjson
- 整合swagger
- 整合JDBC
- 整合spingboot-cache
- 请求
- restful
- 拦截器
- 常用注解
- 参数校验
- 自定义filter
- websocket
- 响应
- 异常错误处理
- 文件下载
- 常用注解
- 页面
- Thymeleaf组件
- 基本对象
- 内嵌对象
- 上传文件
- 单元测试
- 模拟请求测试
- 集成测试
- 源码解析
- 自动配置原理
- 启动流程分析
- 源码相关链接
- Servlet,Filter,Listener
- springcloud
- 配置
- 父pom
- 创建子工程
- Eureka
- Hystrix
- Ribbon
- Feign
- Zuul
- kotlin
- 基本数据类型
- 函数
- 区间
- 区块链
- 简介
- linux
- ulimit修改
- 防止syn攻击
- centos7部署bbr
- debain9开启bbr
- mysql
- 隔离性
- sql执行加载顺序
- 7种join
- explain
- 索引失效和优化
- 表连接优化
- orderby的filesort问题
- 慢查询
- show profile
- 全局查询日志
- 死锁解决
- sql
- 主从
- IDEA
- mac快捷键
- 美化界面
- 断点调试
- 重构
- springboot-devtools热部署
- IDEA进行JAR打包
- 导入jar包
- ProjectStructure
- toString添加json模板
- 配置maven
- Lombok插件
- rest client
- 文档显示
- sftp文件同步
- 书签
- 代码查看和搜索
- postfix
- live template
- git
- 文件头注释
- JRebel
- 离线模式
- xRebel
- github
- 连接mysql
- 选项没有Java class的解决方法
- 扩展
- 项目配置和web部署
- 前端开发
- json和Inject language
- idea内存和cpu变高
- 相关设置
- 设计模式
- 单例模式
- 简介
- 责任链
- JUC
- 原子类
- 原子类简介
- 基本类型原子类
- 数组类型原子类
- 引用类型原子类
- JVM
- JVM规范内存解析
- 对象的创建和结构
- 垃圾回收
- 内存分配策略
- 备注
- 虚拟机工具
- 内存模型
- 同步八种操作
- 内存区域大小参数设置
- happens-before
- web service
- tomcat
- HTTPS
- nginx
- 变量
- 运算符
- 模块
- Rewrite规则
- Netty
- netty为什么没用AIO
- 基本组件
- 源码解读
- 简单的socket例子
- 准备netty
- netty服务端启动
- 案例一:发送字符串
- 案例二:发送对象
- websocket
- ActiveMQ
- JMS
- 安装
- 生产者-消费者代码
- 整合springboot
- kafka
- 简介
- 安装
- 图形化界面
- 生产过程分析
- 保存消息分析
- 消费过程分析
- 命令行
- 生产者
- 消费者
- 拦截器interceptor
- partition
- kafka为什么快
- kafka streams
- kafka与flume整合
- RabbitMQ
- AMQP
- 整体架构
- RabbitMQ安装
- rpm方式安装
- 命令行和管控页面
- 消息生产与消费
- 整合springboot
- 依赖和配置
- 简单测试
- 多方测试
- 对象支持
- Topic Exchange模式
- Fanout Exchange订阅
- 消息确认
- java client
- RabbitAdmin和RabbitTemplate
- 两者简介
- RabbitmqAdmin
- RabbitTemplate
- SimpleMessageListenerContainer
- MessageListenerAdapter
- MessageConverter
- 详解
- Jackson2JsonMessageConverter
- ContentTypeDelegatingMessageConverter
- lucene
- 简介
- 入门程序
- luke查看索引
- 分析器
- 索引库维护
- elasticsearch
- 配置
- 插件
- head插件
- ik分词插件
- 常用术语
- Mapping映射
- 数据类型
- 属性方法
- Dynamic Mapping
- Index Template 索引模板
- 管理映射
- 建立映射
- 索引操作
- 单模式下CURD
- mget多个文档
- 批量操作
- 版本控制
- 基本查询
- Filter过滤
- 组合查询
- 分析器
- redis
- String
- list
- hash
- set
- sortedset
- 发布订阅
- 事务
- 连接池
- 管道
- 分布式可重入锁
- 配置文件翻译
- 持久化
- RDB
- AOF
- 总结
- Lettuce
- zookeeper
- zookeeper简介
- 集群部署
- Observer模式
- 核心工作机制
- zk命令行操作
- zk客户端API
- 感知服务动态上下线
- 分布式共享锁
- 原理
- zab协议
- 两阶段提交协议
- 三阶段提交协议
- Paxos协议
- ZAB协议
- hadoop
- 简介
- hadoop安装
- 集群安装
- 单机安装
- linux编译hadoop
- 添加新节点
- 退役旧节点
- 集群间数据拷贝
- 归档
- 快照管理
- 回收站
- 检查hdfs健康状态
- 安全模式
- hdfs简介
- hdfs命令行操作
- 常见问题汇总
- hdfs客户端操作
- mapreduce工作机制
- 案例-单词统计
- 局部聚合Combiner
- combiner流程
- combiner案例
- 自定义排序
- 自定义Bean对象
- 排序的分类
- 案例-按总量排序需求
- 一次性完成统计和排序
- 分区
- 分区简介
- 案例-结果分区
- 多表合并
- reducer端合并
- map端合并(分布式缓存)
- 分组
- groupingComparator
- 案例-求topN
- 全局计数器
- 合并小文件
- 小文件的弊端
- CombineTextInputFormat机制
- 自定义InputFormat
- 自定义outputFormat
- 多job串联
- 倒排索引
- 共同好友
- 串联
- 数据压缩
- InputFormat接口实现类
- yarn简介
- 推测执行算法
- 本地提交到yarn
- 框架运算全流程
- 数据倾斜问题
- mapreduce的优化方案
- HA机制
- 优化
- Hive
- 安装
- shell参数
- 数据类型
- 集合类型
- 数据库
- DDL操作
- 创建表
- 修改表
- 分区表
- 分桶表
- DML操作
- load
- insert
- select
- export,import
- Truncate
- 注意
- 严格模式
- 函数
- 内置运算符
- 内置函数
- 自定义函数
- Transfrom实现
- having和where不同
- 压缩
- 存储
- 存储和压缩结合使用
- explain详解
- 调优
- Fetch抓取
- 本地模式
- 表的优化
- GroupBy
- count(Distinct)去重统计
- 行列过滤
- 动态分区调整
- 数据倾斜
- 并行执行
- JVM重用
- 推测执行
- reduce内存和个数
- sql查询结果作为变量(shell)
- youtube
- flume
- 简介
- 安装
- 常用组件
- 拦截器
- 案例
- 监听端口到控制台
- 采集目录到HDFS
- 采集文件到HDFS
- 多个agent串联
- 日志采集和汇总
- 单flume多channel,sink
- 自定义拦截器
- 高可用配置
- 使用注意
- 监控Ganglia
- sqoop
- 安装
- 常用命令
- 数据导入
- 准备数据
- 导入数据到HDFS
- 导入关系表到HIVE
- 导入表数据子集
- 增量导入
- 数据导出
- 打包脚本
- 作业
- 原理
- azkaban
- 简介
- 安装
- 案例
- 简介
- command类型单一job
- command类型多job工作流flow
- HDFS操作任务
- mapreduce任务
- hive脚本任务
- oozie
- 安装
- hbase
- 简介
- 系统架构
- 物理存储
- 寻址机制
- 读写过程
- 安装
- 命令行
- 基本CURD
- java api
- CURD
- CAS
- 过滤器查询
- 建表高级属性
- 与mapreduce结合
- 与sqoop结合
- 协处理器
- 参数配置优化
- 数据备份和恢复
- 节点管理
- 案例-点击流
- 简介
- HUE
- 安装
- storm
- 简介
- 安装
- 集群启动及任务过程分析
- 单词统计
- 单词统计(接入kafka)
- 并行度和分组
- 启动流程分析
- ACK容错机制
- ACK简介
- BaseRichBolt简单使用
- BaseBasicBolt简单使用
- Ack工作机制
- 本地目录树
- zookeeper目录树
- 通信机制
- 案例
- 日志告警
- 工具
- YAPI
- chrome无法手动拖动安装插件
- 时间和空间复杂度
- jenkins
- 定位cpu 100%
- 常用脚本工具
- OOM问题定位
- scala
- 编译
- 基本语法
- 函数
- 数组常用方法
- 集合
- 并行集合
- 类
- 模式匹配
- 异常
- tuple元祖
- actor并发编程
- 柯里化
- 隐式转换
- 泛型
- 迭代器
- 流stream
- 视图view
- 控制抽象
- 注解
- spark
- 企业架构
- 安装
- api开发
- mycat
- Groovy
- 基础