HashMap 源码

3. put方法

HashMap的put方法源码如下:

public V put(K key, V value) {
    // 对key求hash值
    return putVal(hash(key), key, value, false, true);
}

/**
 * Implements Map.put and related methods
 *
 * @param hash hash for key
 * @param key the key
 * @param value the value to put
 * @param onlyIfAbsent if true, don't change existing value
 * @param evict if false, the table is in creation mode.
 * @return previous value, or null if none
 */
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
               boolean evict) {
    Node<K,V>[] tab; Node<K,V> p; int n, i;
    // table为空,则resize()进行扩容新建
    if ((tab = table) == null || (n = tab.length) == 0)
        n = (tab = resize()).length;
    // 计算key在table中的index索引下标,如果Node为null,则table[index]中新建Node节点
    if ((p = tab[i = (n - 1) & hash]) == null)
        tab[i] = newNode(hash, key, value, null);
    else {
        Node<K,V> e; K k;
        // table[index]的首个节点key存在,则覆盖value
        if (p.hash == hash &&
            ((k = p.key) == key || (key != null && key.equals(k))))
            e = p;
        // 判断table[index]是否为红黑树,如果是,则直接在树中插入key-value
        else if (p instanceof TreeNode)
            e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
        // table[index]为链表,遍历链表。
        else {
            for (int binCount = 0; ; ++binCount) {
                if ((e = p.next) == null) {
                    p.next = newNode(hash, key, value, null);
                    // 若链表长度 > 8,则将链表转化为红黑树,在红黑树中进行插入
                    if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                        treeifyBin(tab, hash);
                    break;
                }
                // key已经存在,则直接覆盖value
                if (e.hash == hash &&
                    ((k = e.key) == key || (key != null && key.equals(k))))
                    break;
                p = e;
            }
        }
        if (e != null) { // existing mapping for key
            V oldValue = e.value;
            if (!onlyIfAbsent || oldValue == null)
                e.value = value;
            afterNodeAccess(e);
            return oldValue;
        }
    }
    ++modCount;
    // 插入Node成功后,判断实际存在的key-value对是否大于最大容量threshold,如果超过,则进行扩容resize()
    if (++size > threshold)
        resize();
    afterNodeInsertion(evict);
    return null;
}

2. Hash算法

在物色、扩张、删除 key-value
键值对时,都亟待先在HashMap中定位哈希桶数组的目录位置。不常五个key的下标会同样,此时就时有爆发了Hash碰撞,当Hash算法总计结果越分散均匀,Hash碰撞的概率就越小,map的存取作用就越高。

牢固数组索引地点的源码达成如下:

static final int hash(Object key) {
    int h;
    return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}

// jdk1.7的源码
static int indexFor(int h, int length) { 
     return h & (length-1);
}

//jdk1.8没有 indexFor() 方法,但实现原理一样的,定位数组索引下标一般按如下方式:tab[(n - 1) & hash]
/**
 * Implements Map.get and related methods
 *
 * @param hash hash for key
 * @param key the key
 * @return the node, or null if none
 */
final Node<K,V> getNode(int hash, Object key) {
    Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
    if ((tab = table) != null && (n = tab.length) > 0 &&
        (first = tab[(n - 1) & hash]) != null) {
        ...
    }
}

Hash算法本质上分三步:

  • 取key的hashCode值:h = key.hashCode()
  • 高位运算:h ^ (h >>> 16)
  • 取模运算:table[(table.length – 1) & hash]

hash值通过hashCode()的高十肆人异或低十二位来计算,能够在tabl.length很小时,能将高低bit都踏足到Hash总括中。

在HashMap中,哈希桶数组table的长度length大小必须为2的n次方,那样设计,首假若为着在取模和扩大体积时做优化。假设将hash值间接对数高管度进行取模运算,那样元素布满也相比较均匀,但是模运算的损耗是非常的大的。当length总是2的n次方时,(table.length

  • 1) & hash = hash % length,如此来计量成分在table数组的索引处,& 比 %
    具有更加好的效能。

比喻如下:

 图片 1

4. 扩容

扩容(resize)就是重复总结体积。向HashMap对象里不停的添美成分,而HashMap对象内部的数组不或然装载越来越多的成分时,就须求扩张数组的长度,以便能装入更加多的要素。方法是选取叁个新的数组替代已有的体积小的数组。

resize()
扩大体积时,会新建多个越来越大的Entry数组,将原来Entry数组中的成分通过transfer()方法转移到新数组上。通过遍历数组+链表的艺术来遍历旧Entry数组中的各类成分,通过上文提到的
indexFor()方法鲜明在新Entry数组中的下标地点,然后使用链表头插法插入到新Entry数组中。扩大容积会带来一层层的运算,新建数组,对原有成分重新hash,那是很成本财富的。

JDK1.7 resize的源码如下:

void resize(int newCapacity) {   // newCapacity为新的数组长度
   // 获取扩容前旧的Entry数组和数组长度
   Entry[] oldTable = table;    
   int oldCapacity = oldTable.length;     
   // 扩容前的数组长度已经达到最大值了(2^30)  
   if (oldCapacity == MAXIMUM_CAPACITY) { 
       threshold = Integer.MAX_VALUE;   // 修改最大容量阈值为int的最大值(2^31-1),这样以后就不会扩容了
       return;
   }

   Entry[] newTable = new Entry[newCapacity];   // 初始化一个新的Entry数组
   transfer(newTable);                          // 将数据转移到新的Entry数组里
   table = newTable;                            // HashMap的table属性引用新的Entry数组
   threshold = (int)(newCapacity * loadFactor); // 修改阈值
}

void transfer(Entry[] newTable) {
     Entry[] src = table;                   // src引用了旧的Entry数组
     int newCapacity = newTable.length;
     for (int j = 0; j < src.length; j++) {
         Entry<K,V> e = src[j];             // 遍历取得旧Entry数组的每个元素
         if (e != null) {
             src[j] = null;                 // 释放旧Entry数组的对象引用(for循环后,旧的Entry数组不再引用任何对象)
             do {
                 Entry<K,V> next = e.next;
                 int i = indexFor(e.hash, newCapacity);  // 重新计算每个元素在数组中的下标位置
                 e.next = newTable[i]; // 使用单链表的头插方式,将旧Entry数组中元素添加到新Entry数组中
                 newTable[i] = e;     
                 e = next;             // 访问下一个Entry链上的元素
             } while (e != null);
         }
     }
}

JDK1.8 resize的源码如下:

final Node<K,V>[] resize() {
    Node<K,V>[] oldTab = table;
    int oldCap = (oldTab == null) ? 0 : oldTab.length;
    int oldThr = threshold;
    int newCap, newThr = 0;
    if (oldCap > 0) {
        // 容量超过最大值就不再扩充了
        if (oldCap >= MAXIMUM_CAPACITY) {
            threshold = Integer.MAX_VALUE;
            return oldTab;
        }
        // 容量没有超过最大值,就扩充为原来的2倍
        else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                 oldCap >= DEFAULT_INITIAL_CAPACITY)
            newThr = oldThr << 1; // double threshold
    }
    else if (oldThr > 0) // initial capacity was placed in threshold
        newCap = oldThr;
    else {               // zero initial threshold signifies using defaults
        newCap = DEFAULT_INITIAL_CAPACITY;
        newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
    }
    // 计算新的resize容量上限
    if (newThr == 0) {
        float ft = (float)newCap * loadFactor;
        newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                  (int)ft : Integer.MAX_VALUE);
    }
    threshold = newThr;
    @SuppressWarnings({"rawtypes","unchecked"})
        Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
    table = newTab;
    if (oldTab != null) {
        // 把每个bucket都移动到新的bucket中
        for (int j = 0; j < oldCap; ++j) {
            Node<K,V> e;
            if ((e = oldTab[j]) != null) {
                oldTab[j] = null;
                if (e.next == null)
                    newTab[e.hash & (newCap - 1)] = e;
                else if (e instanceof TreeNode)
                    ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                else { // 链表优化重hash
                    Node<K,V> loHead = null, loTail = null;
                    Node<K,V> hiHead = null, hiTail = null;
                    Node<K,V> next;
                    do {
                        next = e.next;
                        // 原索引
                        if ((e.hash & oldCap) == 0) {
                            if (loTail == null)
                                loHead = e;
                            else
                                loTail.next = e;
                            loTail = e;
                        }
                        // 原索引+oldCap
                        else {
                            if (hiTail == null)
                                hiHead = e;
                            else
                                hiTail.next = e;
                            hiTail = e;
                        }
                    } while ((e = next) != null);
                    // 原索引放到bucket中
                    if (loTail != null) {
                        loTail.next = null;
                        newTab[j] = loHead;
                    }
                    // 原索引+oldCap放到bucket中
                    if (hiTail != null) {
                        hiTail.next = null;
                        newTab[j + oldCap] = hiHead;
                    }
                }
            }
        }
    }
    return newTab;
}

HashMap长度扩张为本来的2倍,那样使得成分的职分要不在原职分,要不在移动2次幂的职位。

旧table数组的长度为n,元素原本的职位为(n – 1) &
hash,扩容后数老板度为原来的2倍,则成分的新义务为 (n * 2 – 1) &
hash。比如,原本table数首席营业官度 n=16,图a
表示key1和key2分明索引的义务,图 b表示扩大体积后
key1和key2分明索引的职位,hash1和hash2分别为key1和key2通过Hash算法求得的hash值。如下图所示:

图片 2

key1的原来的地点置为00101=5,扩大容积后的岗位仍为00101=5;而key2原岗位为00101=5,扩大容积后的职分为10101=5+16(原任务+oldCap)

这样设计的实惠在于:既省去了再度总计hash值的年华;同反常候,新扩充1bit是0或1是放肆的,由此resize扩大体积的经过,将此前争辩的一律链表上的节点均匀的发散到新的bucket上

2. 积存实现 – put() 方法

上边是 put() 方法的流程图,结合流程图能够越来越好的了然源码

图片 3

Paste_Image.png

    // 与 JDK 1.7 不同,JDK 1.8 将存储过程的实际处理逻辑放在 putVal() 方法中
    public V put(K key, V value) {
        // 对 key 进行二次 hash
        return putVal(hash(key), key, value, false, true);
    }

    // onlyIfAbsent 为 true, 不修改已经存在的 value 
    // evict 为 false, 数组 table 处于 creation 模式
    final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {

        Node<K,V>[] tab; Node<K,V> p; int n, i;
        // 判断数组 table 是否为空或长度为零,否则执行resize()进行扩容
        if ((tab = table) == null || (n = tab.length) == 0)
            n = (tab = resize()).length;
        // 根据 hash 值获得对应的数组索引 i,如果table[i]==null,则直接添加新节点
        // 此时 p 为table[i] 的首元素
        if ((p = tab[i = (n - 1) & hash]) == null)
            tab[i] = newNode(hash, key, value, null);

        //此时 table[i] 不为空,即发生了 hash 碰撞
        else {
            Node<K,V> e; K k;
            // 如果根节点的 key 和 传入的 key 相同则在下一个 if 语句修改 value
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                e = p;
            // 判断 table[i] 是否为 treeNode (红黑树),如果是红黑树则在树中插入键值对
            else if (p instanceof TreeNode)
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
            else {
                // 遍历 table[i] 的链表
                for (int binCount = 0; ; ++binCount) {
                    // 要是下一个元素为空则插入一个新的节点
                    if ((e = p.next) == null) {
                        p.next = newNode(hash, key, value, null);
                        // 要是链表长度大于 8,则将链表转为红黑树
                        if (binCount >= TREEIFY_THRESHOLD - 1) t
                            treeifyBin(tab, hash);
                        break;
                    }
                    // 要是 key 已经存在则下一个 if 语句修改其 value
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
                    p = e;
                }
            }
            // 在这里集中进行 value 修改,要是需要修改 value 则 e 肯定不为空
            if (e != null) { 
                V oldValue = e.value;
                // onlyIfAbsent 为 true 则不修改已经存在的 value
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                // HashMap 中为空,留给 LinkedHashMap 实现
                afterNodeAccess(e);
                return oldValue;
            }
        }
        ++modCount;
        // 要是当前元素的数量超过 threshold 则扩容
        if (++size > threshold)
            resize();
        // HashMap 中为空,留给 LinkedHashMap 实现
        afterNodeInsertion(evict);
        return null;
    }

2. Hash算法

在寻觅、扩充、删除 key-value
键值对时,都亟需先在HashMap中定位哈希桶数组的目录地方。一时三个key的下标会同样,此时就生出了Hash碰撞,当Hash算法总结结果越分散均匀,Hash碰撞的票房价值就越小,map的存取效用就越高。

定点数组索引地点的源码完结如下:

static final int hash(Object key) {
    int h;
    return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}

// jdk1.7的源码
static int indexFor(int h, int length) { 
     return h & (length-1);
}

//jdk1.8没有 indexFor() 方法,但实现原理一样的,定位数组索引下标一般按如下方式:tab[(n - 1) & hash]
/**
 * Implements Map.get and related methods
 *
 * @param hash hash for key
 * @param key the key
 * @return the node, or null if none
 */
final Node<K,V> getNode(int hash, Object key) {
    Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
    if ((tab = table) != null && (n = tab.length) > 0 &&
        (first = tab[(n - 1) & hash]) != null) {
        ...
    }
}

Hash算法本质上分三步:

  • 取key的hashCode值:h = key.hashCode()
  • 高位运算:h ^ (h >>> 16)
  • 取模运算:table[(table.length – 1) & hash]

hash值通过hashCode()的高15位异或低十五个人来测算,能够在tabl.length很时辰,能将高低bit都加入到Hash计算中。

在HashMap中,哈希桶数组table的长短length大小必须为2的n次方,那样设计,主假使为了在取模和扩大容积时做优化。假若将hash值直接对数首席营业官度举办取模运算,那样成分布满也正如均匀,不过模运算的消耗是非常的大的。当length总是2的n次方时,(table.length

  • 1) & hash = hash % length,如此来计算成分在table数组的索引处,& 比 %
    具备更加好的频率。

比如如下:

 图片 4

5. 线程安全主题材料

HashMap是非线程安全的,在八线程场景下,应该幸免选择,而是利用线程安全的ConcurrentHashMap。在多线程场景中使用HashMap可能出现死循环,进而导致CPU负载过高达到百分百,最终程序宕掉。

当put新因素到HashMap中时,假若总成分个数超越 threshold
,HashMap则会resize扩容,从而hash表中的全部因素会rehash,重新分配到新的hash表中。要是多少个线程并发进行rehash的话,或者会招致环形链表的产出,当另一线程调用HashMap.get(),访问到了环形链表时,就现身了死循环,最后导致程序不可用。如何产生环形链表的内情,那篇小说写的很简单介绍明了:。

3. put方法

HashMap的put方法源码如下:

public V put(K key, V value) {
    // 对key求hash值
    return putVal(hash(key), key, value, false, true);
}

/**
 * Implements Map.put and related methods
 *
 * @param hash hash for key
 * @param key the key
 * @param value the value to put
 * @param onlyIfAbsent if true, don't change existing value
 * @param evict if false, the table is in creation mode.
 * @return previous value, or null if none
 */
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
               boolean evict) {
    Node<K,V>[] tab; Node<K,V> p; int n, i;
    // table为空,则resize()进行扩容新建
    if ((tab = table) == null || (n = tab.length) == 0)
        n = (tab = resize()).length;
    // 计算key在table中的index索引下标,如果Node为null,则table[index]中新建Node节点
    if ((p = tab[i = (n - 1) & hash]) == null)
        tab[i] = newNode(hash, key, value, null);
    else {
        Node<K,V> e; K k;
        // table[index]的首个节点key存在,则覆盖value
        if (p.hash == hash &&
            ((k = p.key) == key || (key != null && key.equals(k))))
            e = p;
        // 判断table[index]是否为红黑树,如果是,则直接在树中插入key-value
        else if (p instanceof TreeNode)
            e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
        // table[index]为链表,遍历链表。
        else {
            for (int binCount = 0; ; ++binCount) {
                if ((e = p.next) == null) {
                    p.next = newNode(hash, key, value, null);
                    // 若链表长度 > 8,则将链表转化为红黑树,在红黑树中进行插入
                    if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                        treeifyBin(tab, hash);
                    break;
                }
                // key已经存在,则直接覆盖value
                if (e.hash == hash &&
                    ((k = e.key) == key || (key != null && key.equals(k))))
                    break;
                p = e;
            }
        }
        if (e != null) { // existing mapping for key
            V oldValue = e.value;
            if (!onlyIfAbsent || oldValue == null)
                e.value = value;
            afterNodeAccess(e);
            return oldValue;
        }
    }
    ++modCount;
    // 插入Node成功后,判断实际存在的key-value对是否大于最大容量threshold,如果超过,则进行扩容resize()
    if (++size > threshold)
        resize();
    afterNodeInsertion(evict);
    return null;
}

1. 二次哈希 – hash() 方法

前边说过HashMap的数据结构是数组和链表的咬合,HashMap 通过 hashCode 鲜明key 在数组的岗位。所以 HashMap
里面包车型大巴要素地点布满得越均匀越好,尽量使得各种地点上的元素数量唯有二个,那么当大家依据hashCode
找到钦赐地方时就绝不遍历链表,大大优化了询问的效能。先看看源码的落到实处:

static final int hash(Object key) {
        int h;
        // h = key.hashCode()  取 hashCode 值
        // h ^ (h >>> 16)      将高位与低位进行异或,
        return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
    }

在 JDK1.8 的贯彻中,优化了高位运算的算法,通过 hashCode()
的高拾几人异或低14位完成的:(h = k.hashCode()) ^ (h >>>
16),首借使从速度、效用、质量来设想的,这么做能够在数组 table 的 length
十分小的时候,也能保障思索到高低位都插足到 HashCode
的盘算中,同一时间不会有太大的付出。

在 JDK1.8 中经过 (n – 1) & hash 定位 key 在数组中地点,在那之中由于 table
的高低总是2的n次方,所以经过位与替代了取模(二者是千篇一律的)大大提高了频率。
上边比如表明下,n为table的长短。

图片 5

hashMap哈希算法例图

HashMap源码阅读,hashmap源码

HashMap是Map家族中使用频度最高的四个,下文首要构王炯码来讲授HashMap的办事规律。

6. 参考

2. Hash算法

在索求、增添、删除 key-value
键值对时,都亟待先在HashMap中定位哈希桶数组的目录地点。有时八个key的下标会同样,此时就发生了Hash碰撞,当Hash算法计算结果越分散均匀,Hash碰撞的可能率就越小,map的存取作用就越高。

原则性数组索引地点的源码达成如下:

static final int hash(Object key) {
    int h;
    return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}

// jdk1.7的源码
static int indexFor(int h, int length) { 
     return h & (length-1);
}

//jdk1.8没有 indexFor() 方法,但实现原理一样的,定位数组索引下标一般按如下方式:tab[(n - 1) & hash]
/**
 * Implements Map.get and related methods
 *
 * @param hash hash for key
 * @param key the key
 * @return the node, or null if none
 */
final Node<K,V> getNode(int hash, Object key) {
    Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
    if ((tab = table) != null && (n = tab.length) > 0 &&
        (first = tab[(n - 1) & hash]) != null) {
        ...
    }
}

Hash算法本质上分三步:

  • 取key的hashCode值:h = key.hashCode()
  • 高位运算:h ^ (h >>> 16)
  • 取模运算:table[(table.length – 1) & hash]

hash值通过hashCode()的高十几个人异或低14位来总结,能够在tabl.length十三分的小时,能将高低bit都参加到Hash总计中。

在HashMap中,哈希桶数组table的尺寸length大小必须为2的n次方,那样设计,主就算为了在取模和扩大容积时做优化。若是将hash值直接对数总裁度进行取模运算,这样成分分布也正如均匀,然则模运算的损耗是不小的。当length总是2的n次方时,(table.length

  • 1) & hash = hash % length,如此来计量成分在table数组的索引处,& 比 %
    具有更加好的频率。

举例如下:

 图片 6

哈希表存款和储蓄

HashMap 正是使用哈希表来囤积的。Java 中 HashMap
选取了链地址法。链地址法,简单的讲,正是数组加链表的整合。在各种数组元素上都贰个链表结构,当数码被Hash后,获得数组下标,把数据放在对应下标成分的链表上。

在 HashMap 获取 key 的 hashCode 时,会调用 key 的 hashCode()
方法得到其hashCode,然后再通过
hash()方法开展三遍哈希来定位该键值对的蕴藏地点,有的时候五个 key
会定位到同样的职位,表示产生了 Hash 碰撞。当然 Hash
算法计算结果越分散均匀,Hash 碰撞的票房价值就越小,map的存取效能就能够越高。

假如哈希桶数组一点都不小,纵然非常差的Hash算法也会相当粗放,要是哈希桶数组数组极小,固然好的Hash算法也会合世非常多碰撞,所以就供给在半空中费用和岁月花费之间权衡,其实正是在依据实际景况鲜明哈希桶数组的大大小小,并在此基础上统一准备好的hash算法收缩Hash碰撞。那么通过什么形式来支配map使得Hash碰撞的可能率又小,哈希桶数组(Node[]
table)占用空间又少啊?答案就是好的 Hash 算法和扩容机制。

在领略Hash和扩大体量流程此前,大家得先精通下HashMap的几个字段。从HashMap的私下认可构造函数源码可见,构造函数正是对上面多少个字段举行起先化,源码如下:

    transient int size;  // 当前 HashMap 存储的元素数量
    transient int modCount;  // 修改计数器,用于 fail-fast 机制
    int threshold; // capacity * loadFactor,能容纳的元素极限
    final float loadFactor; // 加载因子

由公式** threshold = capacity * loadFactor
**能够,threshold就是在此loadFactor 和 capacity
(数老董度)对应下同意存款和储蓄的最大因素数目,抢先那几个数量就再度resize(扩大体积),扩容后的HashMap体积是事先体积的两倍。默许的载荷因子0.75是对空间和岁月功能的一个平衡选取,明显loadFactor 越大冲击就越不易于产生但会开支越来越多的上空;loadFactor
越小,费用的上空会优惠扣只是碰撞会大增致使时间成效下跌。如果内部存款和储蓄器空间比很多而又对时间效能须要相当高,可以降低负荷因子Load
factor的值;相反,假如内存空间紧张而对时间功用要求不高,能够追加负载因子loadFactor的值,这几个值能够超越1。

在 HashMap
中,哈希桶数组table的长度length大小必须为2的n次方,那是一种奇特的宏图,常规的安插性是把桶的轻重缓急设计为素数。相对来讲素数导致顶牛的可能率要小于合数,具体表明能够参考
http://blog.csdn.net/liuqiyao\_01/article/details/14475159,Hashtable
起首化桶大小为11,正是桶大小设计为素数的利用(Hashtable
扩大体量后不能保险依然素数)。HashMap
选择这种特别设计,主假诺为着在取模和扩大体量时做优化,同期为了减小争辩,HashMap
定位哈希桶索引地方时,也加盟了高位插手运算的进程。但此处存在三个难题,即便负载因子和Hash算法设计的再合理,也免不了会产出拉链过长的景观,一旦现身拉链过长,则会严重影响HashMap的质量。于是,在
JDK1.8
版本中,对数据结构做了越来越的优化,引进了红黑树。而当链表长度太长(默许当先8)时,链表就更改为红黑树,利用红黑树快捷增加和删除改查的风味提升HashMap 的品质。

发表评论

电子邮件地址不会被公开。 必填项已用*标注