ThinkChat🤖让你学习和工作更高效,注册即送10W Token,即刻开启你的AI之旅 广告
[TOC] ## JVM GC机制 **JVM GC 算法讲解** **1、根搜索算法** 根搜索算法是从离散数学中的图论引入的,程序把所有引用关系看作一张图,从一个节点GC ROOT 开始,寻找对应的引用节点,找到这个节点后,继续寻找这个节点的引用节点。当所有的引用节点寻找完毕后,剩余的节点则被认为是没有被引用到的节点,即无用的节点。 ![](https://pic1.zhimg.com/80/v2-de35903caa0764079dc5980c21610cbc_720w.png) 上图红色为无用的节点,可以被回收。 目前Java中可以作为GC ROOT的对象有: 1、虚拟机栈中引用的对象(本地变量表) 2、方法区中静态属性引用的对象 3、方法区中常亮引用的对象 4、本地方法栈中引用的对象(Native对象) 基本所有GC算法都引用根搜索算法这种概念。 **2、标记 - 清除算法** ![](https://pic1.zhimg.com/80/v2-1e4e744442d9dc1adefd6805a1bfdea0_720w.png) 标记-清除算法采用从根集合进行扫描,**对存活的对象进行标记**,标记完毕后,再扫描整个空间中未被标记的对象进行直接回收,如上图。 标记-清除算法不需要进行对象的移动,并且仅对不存活的对象进行处理,在存活的对象比较多的情况下极为高效,但由于标记-清除算法直接回收不存活的对象,并没有对还存活的对象进行整理,因此会导致内存碎片。 **3、复制算法** ![](https://pic2.zhimg.com/80/v2-b95db02b09702215228e2dc5575f499d_720w.png) 复制算法将内存划分为两个区间,使用此算法时,所有动态分配的对象都只能分配在其中一个区间(活动区间),而另外一个区间(空间区间)则是空闲的。 复制算法采用从根集合扫描,将存活的对象复制到空闲区间,当扫描完毕活动区间后,会的将活动区间一次性全部回收。**此时原本的空闲区间变成了活动区间**。下次GC时候又会重复刚才的操作,以此循环。 复制算法在存活对象比较少的时候,极为高效,但是带来的成本是牺牲一半的内存空间用于进行对象的移动。**所以复制算法的使用场景,必须是对象的存活率非常低才行**,而且最重要的是,我们需要克服50%内存的浪费。 **4、标记 - 整理算法** ![](https://pic1.zhimg.com/80/v2-c5ac27ceecebacef2d56cdcbc839cf2c_720w.png) 标记-整理算法采用 标记-清除 算法一样的方式进行对象的标记、清除,但在回收不存活的对象占用的空间后,会将所有存活的对象往左端空闲空间移动,并更新对应的指针。标记-整理 算法是在标记-清除 算法之上,又进行了对象的移动排序整理,因此成本更高,但却解决了内存碎片的问题。 JVM为了优化内存的回收,使用了分代回收的方式,对于新生代内存的回收(Minor GC)主要采用**复制算法**。而对于老年代的回收(Major GC),大多采用**标记-整理算法**。 ## redis删除策略 可以设置内存最大使用量,当内存使用量超出时,会施行数据淘汰策略。 Redis 具体有 6 种淘汰策略: | 策略 | 描述 | | --- | --- | | volatile-lru | 从已设置过期时间的数据集中挑选最近最少使用的数据淘汰 | | volatile-ttl | 从已设置过期时间的数据集中挑选将要过期的数据淘汰 | | volatile-random | 从已设置过期时间的数据集中任意选择数据淘汰 | | allkeys-lru | 从所有数据集中挑选最近最少使用的数据淘汰 | | allkeys-random | 从所有数据集中任意选择数据进行淘汰 | | noeviction | 禁止驱逐数据 | 作为内存数据库,出于对性能和内存消耗的考虑,Redis 的淘汰算法实际实现上并非针对所有 key,而是抽样一小部分并且从中选出被淘汰的 key。 使用 Redis 缓存数据时,为了提高缓存命中率,需要保证缓存数据都是热点数据。可以将内存最大使用量设置为热点数据占用的内存量,然后启用 allkeys-lru 淘汰策略,将最近最少使用的数据淘汰。 ## 限流令牌桶 令牌桶算法: 1,令牌按固定速率发放,生成的令牌放入令牌桶中。2,令牌桶有容量限制,当桶满时,新生成的令牌会被丢弃。 3,请求到来时,先从令牌桶中获取令牌,如果取得,则执行请求;如果令牌桶为空,则丢弃该请求。 令牌桶算法可以把请求平均分散在时间段内,是使用较为广发的限流算法。 ## Java中的对象和引用 [https://www.zhihu.com/question/31203609/answer/50992895](https://www.zhihu.com/question/31203609/answer/50992895) ## kafka乱序解决 Kafka分布式的单位是partition,同一个partition用一个write ahead log组织,所以可以保证FIFO的顺序。不同partition之间不能保证顺序。 但是绝大多数用户都可以通过message key来定义,因为同一个key的message可以保证只发送到同一个partition,比如说key是user id,table row id等等,所以同一个user或者同一个record的消息永远只会发送到同一个partition上,保证了同一个user或record的顺序。 [https://www.taosdata.com/blog/2019/10/08/922.html](https://www.taosdata.com/blog/2019/10/08/922.html) [https://blog.csdn.net/u012386386/article/details/79033040](https://blog.csdn.net/u012386386/article/details/79033040) ## rabbitMq如何保证均匀分发 使用 basicQos 方法,并将传递参数为 prefetchCount = 1。 这样告诉 RabbitMQ 不要一次给一个工作线程多个消息。换句话说,在处理并确认前一个消息之前,不要向工作线程发送新消息。相反,它将发送到下一个还不忙的工作线程 ## 阻塞队列实现原理 [https://zhuanlan.zhihu.com/p/56579882](https://zhuanlan.zhihu.com/p/56579882) [https://my.oschina.net/u/3464538/blog/4491417](https://my.oschina.net/u/3464538/blog/4491417)更好的理解 出入都要加锁,所以是一把锁两个condition,用AtomicInteger 统计容量 可查看LinkedBlockingDeque类的代码 ## 简述下IOC加载过程 ### Ioc容器的加载过程简单概括: 1.刷新预处理 2.将配置信息解析,注册到BeanFactory 3.设置bean的类加载器 4.如果有第三方想再bean加载注册完成后,初始化前做点什么(例如修改属性的值,修改bean的scope为单例或者多例。),提供了相应的模板方法,后面还调用了这个方法的实现,并且把这些个实现类注册到对应的容器中 5.初始化当前的事件广播器 6.初始化所有的bean。(懒加载不执行这一步) 7.广播applicationcontext初始化完成。 ### ps:BeanFactory 与 ApplicationContext区别 BeanFactory 看下去可以去做IOC当中的大部分事情,为什么还要去定义一个ApplicationContext 呢? ApplicationContext 它由BeanFactory接口派生而来,因而提供了BeanFactory所有的功能。除此之外context包还提供了以下的功能: 1.MessageSource, 提供国际化的消息访问 2.资源访问,如URL和文件 3.事件传播,实现了ApplicationListener接口的bean 4.载入多个(有继承关系)上下文 ,使得每一个上下文都专注于一个特定的层次,比如应用的web层 ##一条sql执行原理 ## 执行alter修改表结构,如何实现不锁表? 概述 在 mysql 5.5 版本以前,修改表结构如添加索引、修改列,需要锁表,期间不能写入,对于大表这简直是灾难。从5.5特别是5.6里,情况有了好转,支持Online DDL,pt-online-schema-change是Percona-toolkit一员,通过改进原生ddl的方式,达到不锁表在线修改表结构。 1、pt-osc工作过程 1)创建一个和要执行 alter 操作的表一样的新的空表结构(是alter之前的结构) 2)在新表执行alter table 语句(速度应该很快) 3)在原表中创建触发器3个触发器分别对应insert,update,delete操作 4)以一定块大小从原表拷贝数据到临时表,拷贝过程中通过原表上的触发器在原表进行的写操作都会更新到新建的临时表 5)Rename 原表到old表中,在把临时表Rename为原表 6)如果有参考该表的外键,根据alter-foreign-keys-method参数的值,检测外键相关的表,做相应设置的处理 7)默认最后将旧原表删除 4、使用 pt-osc原生 5.6 online ddl相比,如何选择 online ddl在必须copy table时成本较高,不宜采用 pt-osc工具在存在触发器时,不适用 修改索引、外键、列名时,优先采用online ddl,并指定 ALGORITHM=INPLACE 其它情况使用pt-?>,l;kh-osc,虽然存在copy data pt-osc比online ddl要慢一倍左右,因为它是根据负载调整的 无论哪种方式都选择的业务低峰期执行 特殊情况需要利用主从特性,先alter从库,主备切换,再改原主库 ———————————————— ## HashMap为什么线程不安全? 扩容的时候,因为获取数组桶下标时候 需要先1.获取hash,2hash桶数取模或者(hash&(n-1) n为同数量),多线程的情况下不同线程可能会有扩容需求,而桶数量可能是不同的,这样导致取到的数组桶下标不一样,破坏了原子性 ## Thread.join的实现原理 https://www.cnblogs.com/barrywxx/p/10153776.html 1.join()方法是有`synchronized`修饰,**我们需要知道的是,调用wait方法必须要获取锁**,所以join方法是被synchronized修饰的 2.isAlive为true时说明没有执行完,需要调用Object中的wait方法实现线程的阻塞 3.唤醒是在JVM hotspot中调用notify **总结**,Thread.join其实底层是通过wait/notifyall来实现线程的通信达到线程阻塞的目的;当线程执行结束以后,会触发两个事情,第一个是设置native线程对象为null、第二个是通过notifyall方法,让等待在previousThread对象锁上的wait方法被唤醒。 ## redis的hash结构是怎么扩容和rehash的 当hash内部的元素比较拥挤时(hash碰撞比较频繁),就需要进行扩容。**扩容需要申请新的两倍大小的数组,然后将所有的键值对重新分配到新的数组下标对应的链表中(rehash)**。如果hash结构很大,比如有上百万个键值对,那么一次完整rehash的过程就会耗时很长。这对于单线程的Redis里来说有点压力山大。所以**Redis采用了渐进式rehash的方案。它会同时保留两个新旧hash结构,在后续的定时任务以及hash结构的读写指令中将旧结构的元素逐渐迁移到新的结构中。这样就可以避免因扩容导致的线程卡顿现象**。 ## 分布式事务解决方案 ## 无界队列和有界队列区别 ## rabbitMq怎么保证高可用? 镜像集群模式: 这种模式才是高可用模式. 与普通集群模式的主要区别在于. 无论queue的元数据还是queue中的消息都会同时存在与多个实例上. 设计集群的目的: 1. 允许消费者和生产者在RabbitMQ节点崩溃的情况下继续运行 2. 通过增加更多的节点来扩展消息通信的吞吐量 要开启镜像集群模式,需要在后台新增镜像集群模式策略. 即要求数据同步到所有的节点.也可以指定同步到指定数量的节点. 这种方式的好处就在于, 任何一个服务宕机了,都不会影响整个集群数据的完整性, 因为其他服务中都有queue的完整数据, 当进行消息消费的时候,连接其他的服务器节点一样也能获取到数据. 缺点: 1: 性能开销大: 因为需要进行整个集群内部所有实例的数据同步 2:无法线性扩容: 因为每一个服务器中都包含整个集群服务节点中的所有数据, 这样如果一旦单个服务器节点的容量无法容纳了怎么办?. ## kafka中的CAP机制 CAP是不可能同时满足的,所以在Kafka中也是一样,也只能尽量满足。Kafka只实现了CA,Partition tolerance是通过一定的机制尽量尽量满足。 kafka首先将数据写入到不同的分区里面去,每个分区又可能有好多个副本,数据首先写入到leader分区里面去,读写的操作都是与leader分区进行通信,保证了数据的一致性原则,也就是满足了Consistency原则。然后kafka通过分区副本机制,来保证了kafka当中数据的可用性。但是也存在另外一个问题,就是副本分区当中的数据与leader当中的数据存在差别的问题如何解决,这个就是Partition tolerance的问题。 kafka为了解决Partition tolerance的问题,使用了ISR的同步策略,来尽最大可能减少 Partition tolerance的问题。在leader分区中会维护一个ISR(a set of in-sync replicas,基本同步)列表,ISR列表主要的作用就是决定哪些副本分区是可用的,也就是说可以将leader分区里面的数据同步到副本分区里面去,决定一个副本分区是否可用的条件有两个 • replica.lag.time.max.ms=10000 副本分区与主分区心跳时间延迟 • replica.lag.max.messages=4000 副本分区与主分区消息同步最大差 1 2 这里的意思就是说如果某个follower分区超过最大延迟时间还没和leader进行心跳感知或者和leader分区的消息同步差值超过4000条,ISR就认为这个分区不可用了,就会把该分区从ISR中移除。 ## kafka文件存机制 https://blog.csdn.net/qq_41893274/article/details/112746898 ## Spring 中拦截器(Interceptor)与过滤器(Filter)的区别 ## mysql死锁形成原因和解决方案 ## 熔断机制,熔断什么实现? ## 灰度如何实现。A/B testing、分流等设计方案了解吗?