【自动复活进程源码】【c 线程注入源码】【开始建仑源码】hashmap 源码优化

1.HashMap 的码优初始值和最大值和扩容因子
2.concurrenthashmap1.8源码如何详细解析?
3.JDK成长记7:3张图搞懂HashMap底层原理!
4.HashMap为什么不安全?
5.我说HashMap初始容量是码优16,面试官让我回去等通知
6.HashMap实现原理一步一步分析(1-put方法源码整体过程)

hashmap 源码优化

HashMap 的码优初始值和最大值和扩容因子

       HashMap 初始化默认值为。你可以通过构造函数自定义初始值。码优

       最大值为1<<,码优这个值表示2的码优自动复活进程源码次方。在HashMap的码优源码注释中有明确说明。

       理解左移操作符<<是码优关键,它执行二进制左移操作。码优例如,码优1 << x 等同于2的码优x次方。

       当存储元素超过最大值时,码优HashMap会强制将数组大小capacity设置为最大值。码优

       初始化和扩容时,码优数组大小capacity被限制在两个地方:通过tableSizeFor()函数设置为2的码优幂次,不超过最大值;或在容量翻倍时,设置为1 << ,但实际容量为Integer.MAX_VALUE避免整型溢出。

       加载因子,即扩容因子,决定何时进行扩容。比如,加载因子为0.5,初始化容量为时,当元素数达到8个,HashMap会进行扩容。加载因子为0.时,考虑性能与容量平衡。

       以上参数在JDK源代码中定义,是使用HashMap的基础。

concurrenthashmap1.8源码如何详细解析?

       ConcurrentHashMap在JDK1.8的线程安全机制基于CAS+synchronized实现,而非早期版本的分段锁。

       在JDK1.7版本中,ConcurrentHashMap采用分段锁机制,包含一个Segment数组,每个Segment继承自ReentrantLock,并包含HashEntry数组,每个HashEntry相当于链表节点,用于存储key、value。默认支持个线程并发,每个Segment独立,互不影响。

       对于put流程,与普通HashMap相似,首先定位至特定的Segment,然后使用ReentrantLock进行操作,后续过程与HashMap基本相同。

       get流程简单,通过hash值定位至segment,再遍历链表找到对应元素。需要注意的c 线程注入源码是,value是volatile的,因此get操作无需加锁。

       在JDK1.8版本中,线程安全的关键在于优化了put流程。首先计算hash值,遍历node数组。若位置为空,则通过CAS+自旋方式初始化。

       若数组位置为空,尝试使用CAS自旋写入数据;若hash值为MOVED,表示需执行扩容操作;若满足上述条件均不成立,则使用synchronized块写入数据,同时判断链表或转换为红黑树进行插入。链表操作与HashMap相同,链表长度超过8时转换为红黑树。

       get查询流程与HashMap基本一致,通过key计算位置,若table对应位置的key相同则返回结果;如为红黑树结构,则按照红黑树规则获取;否则遍历链表获取数据。

JDK成长记7:3张图搞懂HashMap底层原理!

       一句话讲, HashMap底层数据结构,JDK1.7数组+单向链表、JDK1.8数组+单向链表+红黑树。

       在看过了ArrayList、LinkedList的底层源码后,相信你对阅读JDK源码已经轻车熟路了。除了List很多时候你使用最多的还有Map和Set。接下来我将用三张图和你一起来探索下HashMap的底层核心原理到底有哪些?

       首先你应该知道HashMap的核心方法之一就是put。我们带着如下几个问题来看下图:

       如上图所示,put方法调用了putVal方法,之后主要脉络是:

       如何计算hash值?

       计算hash值的算法就在第一步,对key值进行hashCode()后,对hashCode的值进行无符号右移位和hashCode值进行了异或操作。为什么这么做呢?其实涉及了很多数学知识,简单的说就是尽可能让高和低位参与运算,可以减少hash值的冲突。

       默认容量和扩容阈值是多少?

       如上图所示,很明显第二步回调用resize方法,获取到默认容量为,这个在源码里是1<<4得到的,1左移4位得到的。之后由于默认扩容因子是0.,所以两者相乘就是扩容大小阈值*0.=。之后就分配了一个大小为的Node[]数组,作为Key-Value对存放的数据结构。

       最后一问题是,如何进行hash寻址的?

       hash寻址其实就在数组中找一个位置的意思。用的算法其实也很简单,就是用数组大小和hash值进行n-1&hash运算,这个操作和对hash取模很类似,开始建仑源码只不过这样效率更高而已。hash寻址后,就得到了一个位置,可以把key-value的Node元素放入到之前创建好的Node[]数组中了。

       当你了解了上面的三个原理后,你还需要掌握如下几个问题:

       还是老规矩,看如下图:

       当hash值计算一致,比如当hash值都是时,Key-Value对的Node节点还有一个next指针,会以单链表的形式,将冲突的节点挂在数组同样位置。这就是数据结构中所提到解决hash 的冲突方法之一:单链法。当然还有探测法+rehash法有兴趣的人可以回顾《数据结构和算法》相关书籍。

       但是当hash冲突严重的时候,单链法会造成原理链接过长,导致HashMap性能下降,因为链表需要逐个遍历性能很差。所以JDK1.8对hash冲突的算法进行了优化。当链表节点数达到8个的时候,会自动转换为红黑树,自平衡的一种二叉树,有很多特点,比如区分红和黑节点等,具体大家可以看小灰算法图解。红黑树的遍历效率是O(logn)肯定比单链表的O(n)要好很多。

       总结一句话就是,hash冲突使用单链表法+红黑树来解决的。

       上面的图,核心脉络是四步,源码具体的就不粘出来了。当put一个之后,map的size达到扩容阈值,就会触发rehash。你可以看到如下具体思路:

       情况1:如果数组位置只有一个值:使用新的容量进行rehash,即e.hash & (newCap - 1)

       情况2:如果数组位置有链表,根据 e.hash & oldCap == 0进行判断,结果为0的使用原位置,否则使用index + oldCap位置,放入元素形成新链表,这里不会和情况1新的容量进行rehash与运算了,index + oldCap这样更省性能。

       情况3:如果数组位置有红黑树,根据split方法,同样根据 e.hash & oldCap == 0进行树节点个数统计,如果个数小于6,将树的结果恢复为普通Node,否则使用index + oldCap,调整红黑树位置,这里不会和新的容量进行rehash与运算了,index + oldCap这样更省性能。

       你有兴趣的话,可以分别画一下这三种情况的区块链 java 源码图。这里给大家一个图,假设都出发了以上三种情况结果如下所示:

       上面源码核心脉络,3个if主要是校验了一堆,没做什么事情,之后赋值了扩容因子,不传递使用默认值0.,扩容阈值threshold通过tableSizeFor(initialCapacity);进行计算。注意这里只是计算了扩容阈值,没有初始化数组。代码如下:

       竟然不是大小*扩容因子?

       n |= n >>> 1这句话,是在干什么?n |= n >>> 1等价于n = n | n >>>1; 而|表示位运算中的或,n>>>1表示无符号右移1位。遇到这种情况,之前你应该学到了,如果碰见复杂逻辑和算法方法就是画图或者举例子。这里你就可以举个例子:假设现在指定的容量大小是,n=cap-1=,那么计算过程应该如下:

       n是int类型,java中一般是4个字节,位。所以的二进制: 。

       最后n+1=,方法返回,赋值给threshold=。再次注意这里只是计算了扩容阈值,没有初始化数组。

       为什么这么做呢?一句话,为了提高hash寻址和扩容计算的的效率。

       因为无论扩容计算还是寻址计算,都是二进制的位运算,效率很快。另外之前你还记得取余(%)操作中如果除数是2的幂次方则等同于与其除数减一的与(&)操作。即 hash%size = hash & (size-1)。这个前提条件是除数是2的幂次方。

       你可以再回顾下resize代码,看看指定了map容量,第一次put会发生什么。会将扩容阈值threshold,这样在第一次put的时候就会调用newCap = oldThr;使得创建一个容量为threshold的数组,之后从而会计算新的扩容阈值newThr为newCap*0.=*0.=。也就是说map到了个元素就会进行扩容。

       除了今天知识,技能的成长,给大家带来一个金句甜点,结束我今天的分享:坚持的三个秘诀之一目标化。

       坚持的秘诀除了上一节提到的视觉化,第二个秘诀就是目标化。顾名思义,就是需要给自己定立一个目标。这里要提到的是你的目标不要定的太高了。就比如你想要增加肌肉,给自己定了一个目标,开源签到系统源码每天5组,每次个俯卧撑,你看到自己胖的身形或者海报,很有刺激,结果开始前两天非常厉害,干劲十足,特别奥利给。但是第三天,你想到要个俯卧撑,你就不想起床,就算起来,可能也会把自己撅死过去......其实你的目标不要一下子定的太大,要从微习惯开始,比如我媳妇从来没有做过俯卧撑,就让她每天从1个开始,不能多,我就怕她收不住,做多了。一开始其实从习惯开始,先变成习惯,再开始慢慢加量。量太大养不成习惯,量小才能养成习惯。很容易做到才能养成,你想想是不是这个道理?

       所以,坚持的第二个秘诀就是定一个目标,可以通过小量目标,养成微习惯。比如每天你可以读五分钟书或者5分钟成长记,不要多,我想超过你也会睡着了的.....

       最后,大家可以在阅读完源码后,在茶余饭后的时候问问同事或同学,你也可以分享下,讲给他听听。

HashMap为什么不安全?

       æˆ‘们都知道HashMap是线程不安全的,在多线程环境中不建议使用,但是其线程不安全主要体现在什么地方呢,本文将对该问题进行解密。

       1.jdk1.7中的HashMap

       åœ¨jdk1.8中对HashMap做了很多优化,这里先分析在jdk1.7中的问题,相信大家都知道在jdk1.7多线程环境下HashMap容易出现死循环,这里我们先用代码来模拟出现死循环的情况:

       public class HashMapTest {     public static void main(String[] args) {         HashMapThread thread0 = new HashMapThread();        HashMapThread thread1 = new HashMapThread();        HashMapThread thread2 = new HashMapThread();        HashMapThread thread3 = new HashMapThread();        HashMapThread thread4 = new HashMapThread();        thread0.start();        thread1.start();        thread2.start();        thread3.start();        thread4.start();    }}class HashMapThread extends Thread {     private static AtomicInteger ai = new AtomicInteger();    private static Map map = new HashMap<>();    @Override    public void run() {         while (ai.get() < ) {             map.put(ai.get(), ai.get());            ai.incrementAndGet();        }    }}

       ä¸Šè¿°ä»£ç æ¯”较简单,就是开多个线程不断进行put操作,并且HashMap与AtomicInteger都是全局共享的。

       åœ¨å¤šè¿è¡Œå‡ æ¬¡è¯¥ä»£ç åŽï¼Œå‡ºçŽ°å¦‚下死循环情形:

       å…¶ä¸­æœ‰å‡ æ¬¡è¿˜ä¼šå‡ºçŽ°æ•°ç»„越界的情况:

       è¿™é‡Œæˆ‘们着重分析为什么会出现死循环的情况,通过jps和jstack命名查看死循环情况,结果如下:

       ä»Žå †æ ˆä¿¡æ¯ä¸­å¯ä»¥çœ‹åˆ°å‡ºçŽ°æ­»å¾ªçŽ¯çš„位置,通过该信息可明确知道死循环发生在HashMap的扩容函数中,根源在transfer函数中,jdk1.7中HashMap的transfer函数如下:

       void transfer(Entry[] newTable, boolean rehash) {         int newCapacity = newTable.length;        for (Entry e : table) {             while(null != e) {                 Entry next = e.next;                if (rehash) {                     e.hash = null == e.key ? 0 : hash(e.key);                }                int i = indexFor(e.hash, newCapacity);                e.next = newTable[i];                newTable[i] = e;                e = next;            }        }    }

       æ€»ç»“下该函数的主要作用:

       åœ¨å¯¹table进行扩容到newTable后,需要将原来数据转移到newTable中,注意-行代码,这里可以看出在转移元素的过程中,使用的是头插法,也就是链表的顺序会翻转,这里也是形成死循环的关键点。

       ä¸‹é¢è¿›è¡Œè¯¦ç»†åˆ†æžã€‚

       1.1 扩容造成死循环分析过程

       å‰ææ¡ä»¶ï¼Œè¿™é‡Œå‡è®¾ï¼š

       hash算法为简单的用key mod链表的大小。

       æœ€å¼€å§‹hash表size=2,key=3,7,5,则都在table[1]中。

       ç„¶åŽè¿›è¡Œresize,使size变成4。

       æœªresize前的数据结构如下:

       è¯·ç‚¹å‡»è¾“入图片描述

       å¦‚果在单线程环境下,最后的结果如下:

       è¯·ç‚¹å‡»è¾“入图片描述

       è¿™é‡Œçš„转移过程,不再进行详述,只要理解transfer函数在做什么,其转移过程以及如何对链表进行反转应该不难。

       ç„¶åŽåœ¨å¤šçº¿ç¨‹çŽ¯å¢ƒä¸‹ï¼Œå‡è®¾æœ‰ä¸¤ä¸ªçº¿ç¨‹A和B都在进行put操作。线程A在执行到transfer函数中第行代码处挂起,因为该函数在这里分析的地位非常重要,因此再次贴出来。

       è¯·ç‚¹å‡»è¾“入图片描述

       æ­¤æ—¶çº¿ç¨‹A中运行结果如下:

       è¯·ç‚¹å‡»è¾“入图片描述

       çº¿ç¨‹A挂起后,此时线程B正常执行,并完成resize操作,结果如下:

       è¯·ç‚¹å‡»è¾“入图片描述

       è¿™é‡Œéœ€è¦ç‰¹åˆ«æ³¨æ„çš„点:由于线程B已经执行完毕,根据Java内存模型,现在newTable和table中的Entry都是主存中最新值:7.next=3,3.next=null。

       æ­¤æ—¶åˆ‡æ¢åˆ°çº¿ç¨‹A上,在线程A挂起时内存中值如下:e=3,next=7,newTable[3]=null,代码执行过程如下:

newTable[3]=e ----> newTable[3]=3e=next ----> e=7

       æ­¤æ—¶ç»“果如下:

       è¯·ç‚¹å‡»è¾“入图片描述

       ç»§ç»­å¾ªçŽ¯ï¼š

e=7next=e.next ----> next=3【从主存中取值】e.next=newTable[3] ----> e.next=3【从主存中取值】newTable[3]=e ----> newTable[3]=7e=next ----> e=3

       ç»“果如下:

       è¯·ç‚¹å‡»è¾“入图片描述

       å†æ¬¡è¿›è¡Œå¾ªçŽ¯ï¼š

e=3next=e.next ----> next=nulle.next=newTable[3] ----> e.next=7 å³ï¼š3.next=7newTable[3]=e ----> newTable[3]=3e=next ----> e=null

       æ³¨æ„æ­¤æ¬¡å¾ªçŽ¯ï¼še.next=7,而在上次循环中7.next=3,出现环形链表,并且此时e=null循环结束。

       ç»“果如下:

       è¯·ç‚¹å‡»è¾“入图片描述

       åœ¨åŽç»­æ“ä½œä¸­åªè¦æ¶‰åŠè½®è¯¢hashmap的数据结构,就会在这里发生死循环,造成悲剧。

       1.2 扩容造成数据丢失分析过程

       éµç…§ä¸Šè¿°åˆ†æžè¿‡ç¨‹ï¼Œåˆå§‹æ—¶ï¼š

       è¯·ç‚¹å‡»è¾“入图片描述

       çº¿ç¨‹A和线程B进行put操作,同样线程A挂起:

       è¯·ç‚¹å‡»è¾“入图片描述

       æ­¤æ—¶çº¿ç¨‹A的运行结果如下:

       è¯·ç‚¹å‡»è¾“入图片描述

       æ­¤æ—¶çº¿ç¨‹B已获得CPU时间片,并完成resize操作:

       è¯·ç‚¹å‡»è¾“入图片描述

       åŒæ ·æ³¨æ„ç”±äºŽçº¿ç¨‹B执行完成,newTable和table都为最新值:5.next=null。

       æ­¤æ—¶åˆ‡æ¢åˆ°çº¿ç¨‹A,在线程A挂起时:e=7,next=5,newTable[3]=null。

       æ‰§è¡Œnewtable[i]=e,就将7放在了table[3]的位置,此时next=5。接着进行下一次循环:

e=5next=e.next ----> next=null,从主存中取值e.next=newTable[1] ----> e.next=5,从主存中取值newTable[1]=e ----> newTable[1]=5e=next ----> e=null

       å°†5放置在table[1]位置,此时e=null循环结束,3元素丢失,并形成环形链表。并在后续操作hashmap时造成死循环。

       è¯·ç‚¹å‡»è¾“入图片描述

       2.jdk1.8中HashMap

       åœ¨jdk1.8中对HashMap进行了优化,在发生hash碰撞,不再采用头插法方式,而是直接插入链表尾部,因此不会出现环形链表的情况,但是在多线程的情况下仍然不安全,这里我们看jdk1.8中HashMap的put操作源码:

final V putVal(int hash, K key, V value, boolean onlyIfAbsent,                   boolean evict) {         Node[] tab; Node p; int n, i;        if ((tab = table) == null || (n = tab.length) == 0)            n = (tab = resize()).length;        if ((p = tab[i = (n - 1) & hash]) == null) // å¦‚果没有hash碰撞则直接插入元素            tab[i] = newNode(hash, key, value, null);        else {             Node e; K k;            if (p.hash == hash &&                ((k = p.key) == key || (key != null && key.equals(k))))                e = p;            else if (p instanceof TreeNode)                e = ((TreeNode)p).putTreeVal(this, tab, hash, key, value);            else {                 for (int binCount = 0; ; ++binCount) {                     if ((e = p.next) == null) {                         p.next = newNode(hash, key, value, null);                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st                            treeifyBin(tab, hash);                        break;                    }                    if (e.hash == hash &&                        ((k = e.key) == key || (key != null && key.equals(k))))                        break;                    p = e;                }            }            if (e != null) {  // existing mapping for key                V oldValue = e.value;                if (!onlyIfAbsent || oldValue == null)                    e.value = value;                afterNodeAccess(e);                return oldValue;            }        }        ++modCount;        if (++size > threshold)            resize();        afterNodeInsertion(evict);        return null;    }

       è¿™æ˜¯jdk1.8中HashMap中put操作的主函数, 注意第6行代码,如果没有hash碰撞则会直接插入元素。

       å¦‚果线程A和线程B同时进行put操作,刚好这两条不同的数据hash值一样,并且该位置数据为null,所以这线程A、B都会进入第6行代码中。

       å‡è®¾ä¸€ç§æƒ…况,线程A进入后还未进行数据插入时挂起,而线程B正常执行,从而正常插入数据,然后线程A获取CPU时间片,此时线程A不用再进行hash判断了,问题出现:线程A会把线程B插入的数据给覆盖,发生线程不安全。

       æ€»ç»“

       é¦–å…ˆHashMap是线程不安全的,其主要体现:

       åœ¨jdk1.7中,在多线程环境下,扩容时会造成环形链或数据丢失。

       åœ¨jdk1.8中,在多线程环境下,会发生数据覆盖的情况。

我说HashMap初始容量是,面试官让我回去等通知

       HashMap是工作和面试中常见的数据类型,但很多人只停留在会用的层面,对它的底层实现原理并不深入理解。让我们一起深入浅出地解析HashMap的底层实现。

       考虑以下面试问题,你能完整回答几个呢?

       1. HashMap的底层数据结构是什么?

       JDK1.7使用数组+链表,通过下标快速查询,解决哈希冲突。JDK1.8进行了优化,引入了红黑树,查询效率提升到O(logn)。在JDK1.8中,数组+链表+红黑树结构,当链表长度达到8,并且数组长度大于时,链表会转换为红黑树。

       2. HashMap的初始容量是多少?

       在JDK1.7中,初始容量为,但在JDK1.8中,初始化时并未指定容量,而是在首次执行put操作时才初始化容量。初始化时仅指定了负载因子大小。

       3. HashMap的put方法流程是怎样的?

       源码揭示了put方法的流程,包括哈希计算、桶定位、插入或替换操作等。

       4. HashMap为何要设置容量为2的倍数?

       为了更高效地计算key对应的数组下标位置,当数组长度为2的倍数时,可以通过逻辑与运算快速计算下标位置,比取模运算更快。

       5. HashMap为何线程不安全?

       因为HashMap的所有修改方法均未加锁,导致在多线程环境下无法保证数据的一致性和安全性。例如,一个线程删除key后,其他线程可能还无法察觉,导致数据不一致;在扩容时,另一个线程可能添加元素,但由于没有加锁,元素可能丢失,影响数据安全性。

       6. 解决哈希冲突的方法有哪些?

       常见的方法包括链地址法、线性探测法、再哈希法等。

       7. JDK1.8扩容流程有何优化?

       JDK1.7在扩容时会遍历原数组,重新哈希,计算新数组下标,效率较低。而JDK1.8则优化了流程,只遍历原数组,通过新旧数组下标映射减少操作,提高了效率。

       推荐阅读:《我爱背八股系列》

       面试官问关于订单ID、分库分表、分布式锁、消息队列、MySQL索引、锁原理、查询性能优化等八股文问题时,幸亏有总结的全套八股文。

       以上内容是关于HashMap的深入解析和面试常见问题的解答,希望能够帮助到大家。

HashMap实现原理一步一步分析(1-put方法源码整体过程)

       本文分享了HashMap内部的实现原理,重点解析了哈希(hash)、散列表(hash table)、哈希码(hashcode)以及hashCode()方法等基本概念。

       哈希(hash)是将任意长度的输入通过散列算法转换为固定长度输出的过程,建立一一对应关系。常见算法包括MD5加密和ASCII码表。

       散列表(hash table)是一种数据结构,通过关键码值映射到表中特定位置进行快速访问。

       哈希码(hashcode)是散列表中对象的存储位置标识,用于查找效率。

       Object类中的hashCode()方法用于获取对象的哈希码值,以在散列存储结构中确定对象存储地址。

       在存储字母时,使用哈希码值对数组大小取模以适应存储范围,防止哈希碰撞。

       HashMap在JDK1.7中使用数组+链表结构,而JDK1.8引入了红黑树以优化性能。

       HashMap内部数据结构包含数组和Entry对象,数组用于存储Entry对象,Entry对象用于存储键值对。

       在put方法中,首先判断数组是否为空并初始化,然后计算键的哈希码值对数组长度取模,用于定位存储位置。如果发生哈希碰撞,使用链表解决。

       本文详细介绍了HashMap的存储机制,包括数组+链表的实现方式,以及如何处理哈希碰撞。后续文章将继续深入探讨HashMap的其他特性,如数组长度的优化、多线程环境下的性能优化和红黑树的引入。

结合源码探究HashMap初始化容量问题

       探究HashMap初始化容量问题

       在深入研究HashMap源码时,有一个问题引人深思:为何在知道需要存储n个键值对时,我们通常会选择初始化容量为capacity = n / 0. + 1?

       本文旨在解答这一疑惑,适合具备一定HashMap基础知识的读者。请在阅读前,思考以下问题:

       让我们通过解答这些问题,逐步展开对HashMap初始化容量的深入探讨。

       源码探究

       让我们从实际代码出发,通过debug逐步解析HashMap的初始化逻辑。

       举例:初始化一个容量为9的HashMap。

       执行代码后,我们发现初始化容量为,且阈值threshold设置为。

       解析

       通过debug,我们首先关注到构造方法中的初始化逻辑。注意到,初始化阈值时,实际调用的是`tabliSizeFor(int n)`方法,它返回第一个大于等于n的2的幂。例如,`tabliSizeFor(9)`返回,`tabliSizeFor()`返回,`tabliSizeFor(8)`返回8。

       继续解析

       在构造方法结束后,我们通过debug继续追踪至`put`方法,直至`putVal`方法。

       在`putVal`方法中,我们发现当第一次调用`put`时,table为null,从而触发初始化逻辑。在初始化过程中,关键在于`resize()`方法中对新容量`newCap`的初始化,即等于构造方法中设置的阈值`threshold`()。

       阈值更新

       在初始化后,我们进一步关注`updateNewThr`的代码逻辑,发现新的阈值被更新为新容量乘以负载因子,即 * 0.。

       案例分析

       举例:初始化一个容量为8的HashMap。

       解答:答案是8,因为`tableSizeFor`方法返回大于等于参数的2的幂,而非严格大于。

       扩容问题

       举例:当初始化容量为时,放入9个不同的entry是否会引发扩容。

       解答:不会,因为扩容条件与阈值有关,当map中存储的键值对数量大于阈值时才触发扩容。根据第一问,初始化容量是,阈值为 * 0. = 9,我们只放了9个,因此不会引起扩容。

       容量选择

       举例:已知需要存储个键值对,如何选择合适的初始化容量。

       解答:初始化容量的目的是减少扩容次数以提高效率并节省空间。选择容量时,应考虑既能防止频繁扩容又能充分利用空间。具体选择取决于实际需求和预期键值对的数量。

       总结

       通过本文的探讨,我们深入了解了HashMap初始化容量背后的逻辑和原因。希望这些解析能够帮助您更深入地理解HashMap的内部工作原理。如果您对此有任何疑问或不同的见解,欢迎在评论区讨论。

       最后,如有帮助,欢迎点赞分享。

原创|如果懂了HashMap这两点,面试就没问题了

       HashMap在后端面试中经常被问及,比如默认初始容量、加载因子和线程安全性等问题。通常,这些问题能对答如流,表明对HashMap有较好的理解。然而,近期团队的技术分享中,我从两个角度获得了一些新见解,现在分享给大家。

       首先,让我们探讨如何找到比初始容量值大的最小的2的幂次方整数。通常,使用默认构造器时,HashMap的初始容量为,加载因子为0.。这样做可能导致在数据量大时频繁进行扩容,影响性能。因此,通常会预估容量并使用带容量的构造器创建。通过分析源码,我们可以得知HashMap数组部分长度范围为[0,2^]。要找到比初始容量大的最小的2的幂次方整数,我们需重点关注tableSizeFor方法。此方法巧妙地设计,当输入的容量本身为2的整数次幂时,返回该容量;否则,返回比输入容量大的最小2的整数次幂。此设计旨在确保容量始终为2的整数次幂,从而优化哈希操作,避免哈希冲突。在获取key对应的数组下标时,通过key的哈希值与数组长度-1进行与运算,这种方法依赖于容量为2的整数次幂的特性,以确保哈希值的分散性。

       容量为2的整数次幂的关键在于,它允许通过与运算高效地定位key对应的数组下标。容量不是2的整数次幂时,与运算后的哈希值可能会导致位数为0的冲突,影响数据定位的准确性。tableSizeFor方法在计算过程中,首先对输入的容量进行-1操作,以避免容量本身就是2的整数次幂时,计算结果为容量的2倍。接着,通过连续的移位与或操作,找到比输入容量大的最小的2的整数次幂。这种方法确保了内存的有效利用,避免了不必要的扩容。

       下面,让我们通过一个示例来详细解释算法中的移位与或操作。假设初始容量n为一个位的整数,例如:n = xxx xxxxxxxx xxxxxxxx xxxxxxxx(x表示该位上是0还是1,具体值不关心)。首先,执行n |= n >> 1操作,用n本身与右移一位后的n进行或操作,可以将n的最高位的1及其紧邻的右边一位置为1。接下来,重复此操作,进行n |= n >> 2、n |= n >> 4、n |= n >> 8和n |= n >> 。最后,将n与最大容量进行比较,如果大于等于2^,则返回最大容量;否则,返回n + 1,找到比n大的最小的2的整数次幂。

       在实践中,这确保了在给定容量范围内高效地找到合适的容量值。例如,输入时,输出为,即比大的最小的2的整数次幂。

       接下来,我们探讨HashMap在处理key时进行哈希处理的特殊操作。在执行put操作时,首先对key进行哈希处理。在源码中,可以看到执行了(h = key.hashCode()) ^ (h >> )的操作。这个操作将key的hashCode值与右移位后的值进行异或操作,将哈希值的高位和低位混合计算,以生成更离散的哈希值。通过演示,我们可以发现,当三个不同的key生成的hashCode值的低位完全相同、高位不同时,它们在数组中的下标会相同,导致哈希冲突。通过异或操作,我们解决了这个问题,使得经过哈希处理后的key能被更均匀地分布在数组中,提高了数据的分散性,减少了哈希冲突。

       总结来说,这两个点揭示了HashMap在容量和哈希处理上的一些巧妙设计,这些设计提高了数据结构的效率和性能。理解这些原理不仅有助于解决面试问题,还能在实际工作中借鉴这些思想,优化数据存储和访问效率。希望我的讲解能帮助大家掌握这两个知识点,如有任何疑问,欢迎留言或私聊。通过深入研究和实践,我们可以更好地理解和利用HashMap这一强大的数据结构。

更多内容请点击【百科】专栏

精彩资讯