HashMap底层源码
HashMap 是 Java 中最常用的集合类之一,基于哈希表实现,用于存储键值对(Key-Value)。其底层源码涉及哈希计算、数组 + 链表 / 红黑树结构、扩容机制等核心设计,以下从 JDK 1.8 的角度详细解析:
一、核心数据结构
HashMap 底层采用 数组 + 链表 + 红黑树 的复合结构:
- 数组(Node [] table):称为 "哈希桶",存储键值对的基本容器,每个元素是链表或红黑树的头节点。
- 链表(Node):当哈希冲突(不同 Key 计算出相同索引)时,将元素以链表形式存储。
- 红黑树(TreeNode):当链表长度超过阈值(默认 8)时,链表会转为红黑树,提高查询效率(从 O (n) 优化为 O (log n))。
核心内部类:
// 链表节点
static class Node<K,V> implements Map.Entry<K,V> {final int hash; // 键的哈希值(预计算)final K key; // 键V value; // 值Node<K,V> next; // 下一个节点(链表指针)
}// 红黑树节点(继承自Node)
static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> {TreeNode<K,V> parent; // 父节点TreeNode<K,V> left; // 左子树TreeNode<K,V> right; // 右子树TreeNode<K,V> prev; // 前节点(用于回退链表)boolean red; // 节点颜色(红/黑)
}
二、关键成员变量
// 1. 哈希桶数组(默认初始容量 16)
transient Node<K,V>[] table;// 2. 元素数量(键值对总数)
transient int size;// 3. 扩容阈值(当 size > threshold 时触发扩容)
int threshold;// 4. 负载因子(默认 0.75)
final float loadFactor;// 5. 链表转红黑树的阈值(默认 8)
static final int TREEIFY_THRESHOLD = 8;// 6. 红黑树转链表的阈值(默认 6)
static final int UNTREEIFY_THRESHOLD = 6;// 7. 最小树化容量(哈希桶数组长度 >= 64 时才允许链表转红黑树)
static final int MIN_TREEIFY_CAPACITY = 64;
- 负载因子(loadFactor):控制哈希桶的填充程度,默认 0.75 是时间和空间的平衡值(值越高,空间利用率越高,但哈希冲突概率越大)。
- 扩容阈值(threshold):计算公式为
capacity * loadFactor
(如初始容量 16 * 0.75 = 12)。
三、核心方法解析
1. 构造方法
// 无参构造(默认容量 16,负载因子 0.75)
public HashMap() {this.loadFactor = 0.75f;
}// 指定初始容量
public HashMap(int initialCapacity) {this(initialCapacity, 0.75f);
}// 指定初始容量和负载因子
public HashMap(int initialCapacity, float loadFactor) {// 校验参数合法性if (initialCapacity < 0)throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity);if (initialCapacity > MAXIMUM_CAPACITY)initialCapacity = MAXIMUM_CAPACITY;if (loadFactor <= 0 || Float.isNaN(loadFactor))throw new IllegalArgumentException("Illegal load factor: " + loadFactor);this.loadFactor = loadFactor;// 计算初始阈值(向上取整为 2 的幂)this.threshold = tableSizeFor(initialCapacity);
}
tableSizeFor(initialCapacity)
:确保初始容量为 2 的幂(如传入 10,则返回 16),为后续哈希计算的高效取模做准备。
2. 哈希计算(hash () 方法)
HashMap 通过哈希函数计算 Key 的索引,核心是 hash()
方法和索引计算:
// 计算 Key 的哈希值(减少哈希冲突)
static final int hash(Object key) {int h;// 1. 若 key 为 null,哈希值为 0// 2. 否则,取 key 的 hashCode() 并异或其高 16 位(减少哈希冲突)return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}// 计算索引(哈希桶位置)
int index = (table.length - 1) & hash; // 等价于 hash % table.length(仅当 table.length 为 2 的幂时成立)
- 高 16 位异或:将 Key 的 hashCode 高 16 位与低 16 位混合,增强哈希值的随机性,减少冲突。
- 与运算取模:
(n-1) & hash
比hash % n
更高效,前提是n
为 2 的幂(此时n-1
的二进制全为 1,保证索引在 [0, n-1] 范围内)。
3. 插入元素(put () 方法)
public V put(K key, V value) {return putVal(hash(key), key, value, false, true);
}final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {Node<K,V>[] tab; Node<K,V> p; int n, i;// 1. 若哈希桶未初始化,先扩容(初始化)if ((tab = table) == null || (n = tab.length) == 0)n = (tab = resize()).length;// 2. 计算索引,若该位置为空,直接插入新节点if ((p = tab[i = (n - 1) & hash]) == null)tab[i] = newNode(hash, key, value, null);else {Node<K,V> e; K k;// 3. 若桶中头节点的 key 与插入 key 相同,直接覆盖if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k))))e = p;// 4. 若为红黑树节点,调用红黑树的插入方法else if (p instanceof TreeNode)e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);// 5. 若为链表,遍历链表else {for (int binCount = 0; ; ++binCount) {// 5.1 找到链表尾部,插入新节点if ((e = p.next) == null) {p.next = newNode(hash, key, value, null);// 5.2 若链表长度 >= 8,转为红黑树if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1sttreeifyBin(tab, hash);break;}// 5.3 若链表中存在相同 key,跳出循环准备覆盖if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k))))break;p = e;}}// 6. 若存在相同 key,覆盖旧值并返回旧值if (e != null) { V oldValue = e.value;if (!onlyIfAbsent || oldValue == null)e.value = value;afterNodeAccess(e); // 留给 LinkedHashMap 重写return oldValue;}}++modCount; // 结构性修改计数(用于快速失败机制)// 7. 若元素数量超过阈值,触发扩容if (++size > threshold)resize();afterNodeInsertion(evict); // 留给 LinkedHashMap 重写return null;
}
- 核心流程:计算哈希 -> 定位索引 -> 处理冲突(链表 / 红黑树)-> 扩容检查。
- 红黑树转换条件:链表长度 >= 8 且哈希桶容量 >= 64(否则优先扩容而非转树)。
4. 扩容机制(resize () 方法)
当元素数量超过阈值(size > threshold
)时,HashMap 会扩容(哈希桶数组长度翻倍):
final Node<K,V>[] resize() {Node<K,V>[] oldTab = table;int oldCap = (oldTab == null) ? 0 : oldTab.length;int oldThr = threshold;int newCap, newThr = 0;// 1. 计算新容量和新阈值if (oldCap > 0) {// 若旧容量已达最大值(2^30),则阈值设为 Integer.MAX_VALUE,不再扩容if (oldCap >= MAXIMUM_CAPACITY) {threshold = Integer.MAX_VALUE;return oldTab;}// 否则,新容量 = 旧容量 * 2(仍为 2 的幂)else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY)newThr = oldThr << 1; // 阈值也翻倍}else if (oldThr > 0) // 初始化时使用指定的阈值作为容量newCap = oldThr;else { // 无参构造初始化(默认容量 16,阈值 12)newCap = DEFAULT_INITIAL_CAPACITY;newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);}if (newThr == 0) {float ft = (float)newCap * loadFactor;newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE);}threshold = newThr;// 2. 创建新的哈希桶数组@SuppressWarnings({"rawtypes","unchecked"})Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];table = newTab;// 3. 将旧数组中的元素迁移到新数组if (oldTab != null) {for (int j = 0; j < oldCap; ++j) {Node<K,V> e;if ((e = oldTab[j]) != null) {oldTab[j] = null; // 释放旧节点引用// 3.1 若该位置只有一个节点,直接计算新索引并放入新数组if (e.next == null)newTab[e.hash & (newCap - 1)] = e;// 3.2 若为红黑树,拆分红黑树else if (e instanceof TreeNode)((TreeNode<K,V>)e).split(this, newTab, j, oldCap);// 3.3 若为链表,拆分链表(优化:无需重新计算哈希,仅判断高位)else { Node<K,V> loHead = null, loTail = null; // 索引不变的链表Node<K,V> hiHead = null, hiTail = null; // 索引 = 旧索引 + 旧容量 的链表Node<K,V> next;do {next = e.next;// 核心:通过哈希值的旧容量位判断新索引(0 则不变,1 则 +oldCap)if ((e.hash & oldCap) == 0) {if (loTail == null)loHead = e;elseloTail.next = e;loTail = e;}else {if (hiTail == null)hiHead = e;elsehiTail.next = e;hiTail = e;}} while ((e = next) != null);// 将拆分后的链表放入新数组if (loTail != null) {loTail.next = null;newTab[j] = loHead;}if (hiTail != null) {hiTail.next = null;newTab[j + oldCap] = hiHead;}}}}}return newTab;
}
- 扩容核心:容量翻倍(保持 2 的幂),重新计算元素索引并迁移。
- 链表拆分优化:利用哈希值的
oldCap
位(二进制)判断新索引,避免重新计算哈希,提高效率。
5. 查询元素(get () 方法)
public V get(Object key) {Node<K,V> e;return (e = getNode(hash(key), key)) == null ? null : e.value;
}final Node<K,V> getNode(int hash, Object key) {Node<K,V>[] tab; Node<K,V> first, e; int n; K k;// 1. 哈希桶不为空且索引位置有元素if ((tab = table) != null && (n = tab.length) > 0 &&(first = tab[(n - 1) & hash]) != null) {// 2. 检查头节点是否匹配if (first.hash == hash && ((k = first.key) == key || (key != null && key.equals(k))))return first;// 3. 遍历链表或红黑树if ((e = first.next) != null) {if (first instanceof TreeNode)return ((TreeNode<K,V>)first).getTreeNode(hash, key); // 红黑树查询do { // 链表查询if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k))))return e;} while ((e = e.next) != null);}}return null;
}
- 查询流程:计算哈希 -> 定位索引 -> 检查头节点 -> 遍历链表 / 红黑树。
四、线程安全性
HashMap 是 线程不安全 的,在多线程环境下可能出现以下问题:
- 扩容时的环形链表:多线程同时扩容可能导致链表成环,引发
get()
方法死循环。 - 数据覆盖:多线程同时
put()
可能导致某线程的插入操作被覆盖。
线程安全替代方案:
- 使用
Collections.synchronizedMap(new HashMap<>())
(加锁包装)。 - 使用
ConcurrentHashMap
(JDK 1.8 采用 CAS + 局部锁,性能更优)。
五、总结
HashMap 的核心设计围绕 哈希计算 和 冲突处理:
- 通过 2 的幂容量、高 16 位异或哈希值等优化,减少哈希冲突。
- 采用链表 + 红黑树的结构,平衡不同冲突程度下的查询效率。
- 动态扩容机制(容量翻倍)保证哈希桶的稀疏性,维持高效操作。
理解其底层源码有助于合理使用 HashMap(如初始容量设置、避免频繁扩容等),并应对面试中的核心考点。