首先,红黑树细节暂时撸不出来,所以没写,承诺年前一定写

HashMap

(底层是数组+链表/红黑树,无序键值对集合,非线程安全)

基于哈希表实现,链地址法。

loadFactor默认为0.75,threshold(阈)为12,并创建一个大小为16的Entry数组。

在遍历时是无序的,如需有序,建议使用TreeMap。

采用数组方式存储key、value构成的Entry对象,无容量限制。

基于key hash寻找Entry对象存放在数组中的位置,对于hash冲突采用链表/红黑树的方式来解决。

HashMap在插入元素时可能会扩大数组的容量,在扩大容量时需要重新计算hash,并复制对象到新的数组中。

是非线程安全的。

// 1. 哈希冲突时采用链表法的类,一个哈希桶多于8个元素改为TreeNodestatic class Node<K,V> implements Map.Entry<K,V>// 2. 哈希冲突时采用红黑树存储的类,一个哈希桶少于6个元素改为Nodestatic final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V>

某个桶对应的链表过长的话搜索效率低,改为红黑树效率会提高。

为何按位与而不是取摸 hashmap的iterator读取时是否会读到另一个线程put的数据

红黑树;hashmap报ConcurrentModificationException的情况

Hash冲突中链表结构的数量大于8个,则调用树化转为红黑树结构,红黑树查找稍微快些;红黑树结构的数量小于6个时,则转为链表结构

如果加载因子越大,对空间的利用更充分,但是查找效率会降低(链表长度会越来越长);如果加载因子太小,那么表中的数据将过于稀疏(很多空间还没用,就开始扩容了),对空间造成严重浪费。如果我们在构造方法中不指定,则系统默认加载因子为0.75,这是一个比较理想的值,一般情况下我们是无需修改的。

一般对哈希表的散列很自然地会想到用hash值对length取模(即除法散列法),Hashtable中也是这样实现的,这种方法基本能保证元素在哈希表中散列的比较均匀,但取模会用到除法运算,效率很低,HashMap中则通过h&(length-1)的方法来代替取模,同样实现了均匀的散列,但效率要高很多,这也是HashMap对Hashtable的一个改进。

哈希表的容量一定要是2的整数次幂。首先,length为2的整数次幂的话,h&(length-1)就相当于对length取模,这样便保证了散列的均匀,同时也提升了效率;其次,length为2的整数次幂的话,为偶数,这样length-1为奇数,奇数的最后一位是1,这样便保证了h&(length-1)的最后一位可能为0,也可能为1(这取决于h的值),即与后的结果可能为偶数,也可能为奇数,这样便可以保证散列的均匀性,而如果length为奇数的话,很明显length-1为偶数,它的最后一位是0,这样h&(length-1)的最后一位肯定为0,即只能为偶数,这样任何hash值都只会被散列到数组的偶数下标位置上,这便浪费了近一半的空间,因此,length取2的整数次幂,是为了使不同hash值发生碰撞的概率较小,这样就能使元素在哈希表中均匀地散列。

(了解即可)成员变量

/*** The default initial capacity - MUST be a power of two.*/
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16/*** The maximum capacity, used if a higher value is implicitly specified* by either of the constructors with arguments.* MUST be a power of two <= 1<<30.*/
static final int MAXIMUM_CAPACITY = 1 << 30;/*** The load factor used when none specified in constructor.*/
static final float DEFAULT_LOAD_FACTOR = 0.75f;/*** The bin count threshold for using a tree rather than list for a* bin.  Bins are converted to trees when adding an element to a* bin with at least this many nodes. The value must be greater* than 2 and should be at least 8 to mesh with assumptions in* tree removal about conversion back to plain bins upon* shrinkage.*/
static final int TREEIFY_THRESHOLD = 8;/*** The bin count threshold for untreeifying a (split) bin during a* resize operation. Should be less than TREEIFY_THRESHOLD, and at* most 6 to mesh with shrinkage detection under removal.*/
static final int UNTREEIFY_THRESHOLD = 6;/*** The smallest table capacity for which bins may be treeified.* (Otherwise the table is resized if too many nodes in a bin.)* Should be at least 4 * TREEIFY_THRESHOLD to avoid conflicts* between resizing and treeification thresholds.*/
static final int MIN_TREEIFY_CAPACITY = 64;/*** The table, initialized on first use, and resized as* necessary. When allocated, length is always a power of two.* (We also tolerate length zero in some operations to allow* bootstrapping mechanics that are currently not needed.)*/
transient Node<K,V>[] table;/*** Holds cached entrySet(). Note that AbstractMap fields are used* for keySet() and values().*/
transient Set<Map.Entry<K,V>> entrySet;/*** The number of key-value mappings contained in this map.*/
transient int size;/*** The number of times this HashMap has been structurally modified* Structural modifications are those that change the number of mappings in* the HashMap or otherwise modify its internal structure (e.g.,* rehash).  This field is used to make iterators on Collection-views of* the HashMap fail-fast.  (See ConcurrentModificationException).*/
transient int modCount;/*** The next size value at which to resize (capacity * load factor).** @serial*/
// (The javadoc description is true upon serialization.
// Additionally, if the table array has not been allocated, this
// field holds the initial array capacity, or zero signifying
// DEFAULT_INITIAL_CAPACITY.)// HashMap的阈值,用于判断是否需要调整HashMap的容量(threshold = 容量*装载因子)
int threshold;/*** The load factor for the hash table.** @serial*/
final float loadFactor;

构造方法

注意哪怕是指定了初始容量,也不会直接初始化table,而是在第一次put时调用resize来初始化table,resize里会将threshold视为初始容量。

public HashMap(int initialCapacity, float loadFactor) {if (initialCapacity < 0)throw new IllegalArgumentException("Illegal initial capacity: " +initialCapacity);if (initialCapacity > MAXIMUM_CAPACITY)initialCapacity = MAXIMUM_CAPACITY;if (loadFactor <= 0 || Float.isNaN(loadFactor))throw new IllegalArgumentException("Illegal load factor: " +loadFactor);this.loadFactor = loadFactor;// 阈值为不小于容量的2的幂次this.threshold = tableSizeFor(initialCapacity);
}public HashMap(int initialCapacity) {this(initialCapacity, DEFAULT_LOAD_FACTOR);
}/*** Constructs an empty <tt>HashMap</tt> with the default initial capacity* (16) and the default load factor (0.75).*/
public HashMap() {this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}

tableSizeFor(找到大于等于initialCapacity的最小的2的幂次以及原因)

/*** Returns a power of two size for the given target capacity.*/
static final int tableSizeFor(int cap) {int n = cap - 1;n |= n >>> 1;n |= n >>> 2;n |= n >>> 4;n |= n >>> 8;n |= n >>> 16;return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}

hash(hash算法,算法比较高效、均匀)

static final int hash(Object key) {int h;return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}

key的hash值高16位不变,低16位与高16位异或作为key的最终hash值。(h >>> 16,表示无符号右移16位,高位补0,任何数跟0异或都是其本身,因此key的hash值高16位不变。)

保证了对象的hashCode的高16位的变化能反应到低16位中,

hash to index

如何根据hash值计算index?(put和get中的代码)

n = table.length;

index = (n-1)& hash;

n总是2n次方时,hash & (n-1)运算等价于h%n,但是&%具有更高的效率。

put

public V put(K key, V value) {return putVal(hash(key), key, value, false, true);
}// onlyIfAbsent如果为true,只有在hashmap没有该key的时候才添加// evict如果为false,hashmap为创建模式;只有在使用Map集合作为构造器创建LinkedHashMap或HashMap时才会为false。// 这两个参数均为实现java8的新接口而设置Node<K,V> newNode(int hash, K key, V value, Node<K,V> next) {return new Node<>(hash, key, value, next);
}final V putVal(int hash, K key, V value, boolean onlyIfAbsent,boolean evict) {Node<K,V>[] tab; // tableNode<K,V> p;  // node pointerint n, i; // n 为length, i 为 node indexif ((tab = table) == null || (n = tab.length) == 0)n = (tab = resize()).length;// index处没有元素,则直接放入新节点if ((p = tab[i = (n - 1) & hash]) == null)tab[i] = newNode(hash, key, value, null);else {// index处有元素Node<K,V> e;K k;if (p.hash == hash &&((k = p.key) == key || (key != null && key.equals(k))))// 假如key是相同的,那么替换value即可e = p;else if (p instanceof TreeNode)// key不同,但如果p是红黑树根节点,那么将新节点放入红黑树e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);else {// key不同,但如果p是链表头节点,那么判断链表中是否有该节点,如没有,则将新节点插入到链表尾部for (int binCount = 0; ; ++binCount) {if ((e = p.next) == null) {p.next = newNode(hash, key, value, null);// 插入后如果发现已经链表长度已经适合转为红黑树了,则转换if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1sttreeifyBin(tab, hash);break;}// 链表中某元素key和key相同,则替换value即可if (e.hash == hash &&((k = e.key) == key || (key != null && key.equals(k))))break;p = e;}}if (e != null) { // existing mapping for keyV oldValue = e.value;if (!onlyIfAbsent || oldValue == null)e.value = value;afterNodeAccess(e);return oldValue;}}++modCount;if (++size > threshold)resize();afterNodeInsertion(evict);return null;
}

扩容 resize

// 扩容函数,如果hash桶为空,初始化默认大小,否则双倍扩容// 注意!!因为扩容为2的倍数,根据hash桶的计算方法,元素哈希值不变// 所以元素在新的hash桶的下标,要不跟旧的hash桶下标一致,要不增加1倍。cap:capacitythr:thresholdfinal Node<K,V>[] resize() {Node<K,V>[] oldTab = table;int oldCap = (oldTab == null) ? 0 : oldTab.length;int oldThr = threshold;int newCap, newThr = 0;if (oldCap > 0) {if (oldCap >= MAXIMUM_CAPACITY) {threshold = Integer.MAX_VALUE;return oldTab;}else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&oldCap >= DEFAULT_INITIAL_CAPACITY)newThr = oldThr << 1; // double threshold}else if (oldThr > 0) // initial capacity was placed in thresholdnewCap = oldThr;else {               // zero initial threshold signifies using defaultsnewCap = DEFAULT_INITIAL_CAPACITY;newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);}if (newThr == 0) {float ft = (float)newCap * loadFactor;newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?(int)ft : Integer.MAX_VALUE);}threshold = newThr;Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];table = newTab;if (oldTab != null) {for (int j = 0; j < oldCap; ++j) {Node<K,V> e;if ((e = oldTab[j]) != null) {// j位置原本元素存在oldTab[j] = null;if (e.next == null)// 如果该位置没有形成链表,则再次计算index,放入新table// 假设扩容前的table大小为2的N次方,有上述put方法解析可知,元素的table索引为其hash值的后N位确定那么扩容后的table大小即为2的N+1次方,则其中元素的table索引为其hash值的后N+1位确定,比原来多了一位因此,table中的元素只有两种情况:元素hash值第N+1位为0:不需要进行位置调整元素hash值第N+1位为1:调整至原索引的两倍位置newTab[e.hash & (newCap - 1)] = e;else if (e instanceof TreeNode)// 如果该位置形成了红黑树,则split((TreeNode<K,V>)e).split(this, newTab, j, oldCap);else { // preserve order// 如果该位置形成了链表,则分成两个链表,分别放在0~oldCap,oldCap~oldCap*2位置处Node<K,V> loHead = null, loTail = null;Node<K,V> hiHead = null, hiTail = null;Node<K,V> next;do {next = e.next;// 用于确定元素hash值第N+1位是否为0:若为0,则使用loHead与loTail,将元素移至新table的原索引处若不为0,则使用hiHead与hiHead,将元素移至新table的两倍索引处if ((e.hash & oldCap) == 0) {if (loTail == null)loHead = e;elseloTail.next = e;loTail = e;}else {if (hiTail == null)hiHead = e;elsehiTail.next = e;hiTail = e;}} while ((e = next) != null);if (loTail != null) {loTail.next = null;newTab[j] = loHead;}if (hiTail != null) {hiTail.next = null;newTab[j + oldCap] = hiHead;}}}}}return newTab;
}

get(O(logn))

public V get(Object key) {Node<K,V> e;return (e = getNode(hash(key), key)) == null ? null : e.value;
}final Node<K,V> getNode(int hash, Object key) {Node<K,V>[] tab; Node<K,V> first, e; int n; K k;if ((tab = table) != null && (n = tab.length) > 0 &&(first = tab[(n - 1) & hash]) != null) {// table不为空,且hash对应index元素不为空// 如果index位置就是我们要找的key,则直接返回if (first.hash == hash && // always check first node((k = first.key) == key || (key != null && key.equals(k))))return first;// 如果不是,则从链表或红黑树的角度继续找if ((e = first.next) != null) {if (first instanceof TreeNode)return ((TreeNode<K,V>)first).getTreeNode(hash, key);do {if (e.hash == hash &&((k = e.key) == key || (key != null && key.equals(k))))return e;} while ((e = e.next) != null);}}return null;
}

remove

public V remove(Object key) {Node<K,V> e;return (e = removeNode(hash(key), key, null, false, true)) == null ?null : e.value;
}value=null,matchValue=false,movable=truefinal Node<K,V> removeNode(int hash, Object key, Object value,boolean matchValue, boolean movable) {Node<K,V>[] tab; Node<K,V> p; int n, index;if ((tab = table) != null && (n = tab.length) > 0 &&(p = tab[index = (n - 1) & hash]) != null) {Node<K,V> node = null, e; K k; V v;// 1) 如果hash 对应index即为我们要找的key,则找到if (p.hash == hash &&((k = p.key) == key || (key != null && key.equals(k))))node = p;// 2) 从链表或红黑树的角度继续找else if ((e = p.next) != null) {if (p instanceof TreeNode)node = ((TreeNode<K,V>)p).getTreeNode(hash, key);else {do {if (e.hash == hash &&((k = e.key) == key ||(key != null && key.equals(k)))) {node = e;break;}p = e;} while ((e = e.next) != null);}}// 找到后,根据找到的位置不同 相应地进行删除if (node != null && (!matchValue || (v = node.value) == value ||(value != null && value.equals(v)))) {if (node instanceof TreeNode)((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);else if (node == p)tab[index] = node.next;elsep.next = node.next;++modCount;--size;afterNodeRemoval(node);return node;}}return null;
}

containsKey

public boolean containsKey(Object key) {return getNode(hash(key), key) != null;
}

containsValue

public boolean containsValue(Object value) {Node<K,V>[] tab; V v;if ((tab = table) != null && size > 0) {for (int i = 0; i < tab.length; ++i) {for (Node<K,V> e = tab[i]; e != null; e = e.next) {if ((v = e.value) == value ||(value != null && value.equals(v)))return true;}}}return false;
}

a)链表转红黑树 treeifyBin

/*** Replaces all linked nodes in bin at index for given hash unless* table is too small, in which case resizes instead.*/
final void treeifyBin(Node<K,V>[] tab, int hash) {int n, index; Node<K,V> e;if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)resize();else if ((e = tab[index = (n - 1) & hash]) != null) {TreeNode<K,V> hd = null, tl = null;do {TreeNode<K,V> p = replacementTreeNode(e, null);if (tl == null)hd = p;else {p.prev = tl;tl.next = p;}tl = p;} while ((e = e.next) != null);if ((tab[index] = hd) != null)hd.treeify(tab);}
}

b)红黑树转链表 TreeNode#untreeify

final Node<K,V> untreeify(HashMap<K,V> map) {Node<K,V> hd = null, tl = null;for (Node<K,V> q = this; q != null; q = q.next) {Node<K,V> p = map.replacementNode(q, null);if (tl == null)hd = p;elsetl.next = p;tl = p;}return hd;
}

LinkedHashMap

(底层是(数组+链表/红黑树)+环形双向链表,继承自HashMap)

LinkedHashMap是key键有序的HashMap的一种实现。它除了使用哈希表这个数据结构,使用环形双向链表来保证key的顺序。

HashMap是无序的,也就是说,迭代HashMap所得到的元素顺序并不是它们最初放置到HashMap的顺序。HashMap的这一缺点往往会造成诸多不便,因为在有些场景中,我们确需要用到一个可以保持插入顺序的Map。庆幸的是,JDK为我们解决了这个问题,它为HashMap提供了一个子类 —— LinkedHashMap。虽然LinkedHashMap增加了时间和空间上的开销,但是它通过维护一个额外的双向链表保证了迭代顺序。特别地,该迭代顺序可以是插入顺序,也可以是访问顺序。因此,根据链表中元素的顺序可以将LinkedHashMap分为:保持插入顺序的LinkedHashMap 和 保持访问顺序(LRU,get后调整链表序,最新获取的放在最后)的LinkedHashMap,其中LinkedHashMap的默认实现是按插入顺序排序的。

特点:

一般来说,如果需要使用的Map中的key无序,选择HashMap;如果要求key有序,则选择TreeMap。

但是选择TreeMap就会有性能问题,因为TreeMap的get操作的时间复杂度是O(log(n))的,相比于HashMap的O(1)还是差不少的,LinkedHashMap的出现就是为了平衡这些因素,使得能够以O(1)时间复杂度增加查找元素,又能够保证key的有序性

实现原理:

将所有Entry节点链入一个双向链表的HashMap。在LinkedHashMap中,所有put进来的Entry都保存在哈希表中,但由于它又额外定义了一个以head为头结点的双向链表,因此对于每次put进来Entry,除了将其保存到哈希表上外,还会将其插入到双向链表的尾部。

LinkedHashMap#Entry

static class Entry<K,V> extends HashMap.Node<K,V> {Entry<K,V> before, after;Entry(int hash, K key, V value, Node<K,V> next) {super(hash, key, value, next);}
}

put

同HashMap,但重写了afterNodeInsertion。

void afterNodeInsertion(boolean evict) { // possibly remove eldestLinkedHashMap.Entry<K,V> first;if (evict && (first = head) != null && removeEldestEntry(first)) {K key = first.key;removeNode(hash(key), key, null, false, true);}
}//可以自行重写该方法protected boolean removeEldestEntry(Map.Entry<K,V> eldest) {return false;
}public class LRUHashMap<K, V> extends LinkedHashMap<K, V>{private final int MAX_CACHE_SIZE;public BaseLRUCache(int cacheSize) {super(cacheSize, 0.75f, true);MAX_CACHE_SIZE = cacheSize;}@Overrideprotected boolean removeEldestEntry(Map.Entry eldest) {return size() > MAX_CACHE_SIZE;}
}

remove

同HashMap,但重写了afterNodeRemoval。

void afterNodeRemoval(Node<K,V> e) { // unlinkLinkedHashMap.Entry<K,V> p =(LinkedHashMap.Entry<K,V>)e, b = p.before, a = p.after;p.before = p.after = null;if (b == null)head = a;elseb.after = a;if (a == null)tail = b;elsea.before = b;
}

get

public V get(Object key) {Node<K,V> e;if ((e = getNode(hash(key), key)) == null)return null;if (accessOrder)afterNodeAccess(e);return e.value;
}void afterNodeAccess(Node<K,V> e) { // move node to lastLinkedHashMap.Entry<K,V> last;if (accessOrder && (last = tail) != e) {LinkedHashMap.Entry<K,V> p =(LinkedHashMap.Entry<K,V>)e, b = p.before, a = p.after;p.after = null;if (b == null)head = a;elseb.after = a;if (a != null)a.before = b;elselast = b;if (last == null)head = p;else {p.before = last;last.after = p;}tail = p;++modCount;}
}

遍历(迭代环形双向链表)

..........

TreeMap

(底层是红黑树)

支持排序的Map实现。

基于红黑树实现,无容量限制。

是非线程安全的。

TreeMap是根据key进行排序的,它的排序和定位需要依赖比较器或覆写Comparable接口,也因此不需要key覆写hashCode方法和equals方法,就可以排除掉重复的key,而HashMap的key则需要通过覆写hashCode方法和equals方法来确保没有重复的key

TreeMap的查询、插入、删除效率均没有HashMap高,一般只有要对key排序时才使用TreeMap。

TreeMap的key不能为null,而HashMap的key可以为null。

Fail-Fast

在ArrayList,LinkedList,HashMap等等的内部实现增,删,改中我们总能看到modCount的身影,modCount字面意思就是修改次数,但为什么要记录modCount的修改次数呢?

所有使用modCount属性集合的都是线程不安全的。

在一个迭代器初始的时候会赋予它调用这个迭代器的对象的modCount,在迭代器遍历的过程中,一旦发现这个对象的modCount和迭代器中存储的modCount不一样那就抛异常。

它是 java 集合的一种错误检测机制,当多个线程对集合进行结构上的改变的操作时,有可能会产生 fail-fast。

例如 :假设存在两个线程(线程 1、线程 2),线程 1 通过 Iterator 在遍历集合 A 中的元素,在某个时候线程 2 修改了集合 A 的结构(是结构上面的修改,而不是简单的修改集合元素的内容),那么这个时候程序就会抛出 ConcurrentModificationException 异常,从而产生 fail-fast 机制。

原因: 迭代器在遍历时直接访问集合中的内容,并且在遍历过程中使用一个 modCount 变量。集合在被遍历期间如果内容发生变化,就会改变 modCount 的值。

每当迭代器使用 hashNext()/next() 遍历下一个元素之前,都会检测 modCount 变量是否为 expectedmodCount 值,是的话就返回遍历;否则抛出异常,终止遍历。

解决办法:使用线程安全的集合

终于,我读懂了所有Java集合——map篇相关推荐

  1. 终于,我读懂了所有Java集合——map篇(多线程)

    多线程环境下的问题 1.8中hashmap的确不会因为多线程put导致死循环(1.7代码中会这样子),但是依然有其他的弊端,比如数据丢失等等.因此多线程情况下还是建议使用ConcurrentHashM ...

  2. 终于,我读懂了所有Java集合——List篇

    ArrayList 基于数组实现,无容量的限制. 在执行插入元素时可能要扩容,在删除元素时并不会减小数组的容量,在查找元素时要遍历数组,对于非null的元素采取equals的方式寻找. 是非线程安全的 ...

  3. 终于,我读懂了所有Java集合——queue篇

    Stack 基于Vector实现,支持LIFO. 类声明 public class Stack<E> extends Vector<E> {} push public E pu ...

  4. 终于,我读懂了所有Java集合——set篇

    HashSet (底层是HashMap) Set不允许元素重复. 基于HashMap实现,无容量限制. 是非线程安全的. 成员变量 private transient HashMap<E,Obj ...

  5. 终于,我读懂了所有Java集合——sort

    Collections.sort 事实上Collections.sort方法底层就是调用的Arrays.sort方法,而Arrays.sort使用了两种排序方法,快速排序和优化的归并排序. 快速排序主 ...

  6. 图解易经:一部终于可以读懂的易经 祖行 扫描版 陕西师范大学出版社

    图解易经:一部终于可以读懂的易经  祖行  扫描版  陕西师范大学出版社

  7. 《图解易经:一本终于可以读懂的易…

    <图解易经:一本终于可以读懂的易经>(祖行)扫描版[PDF] 中文名: 图解易经:一本终于可以读懂的易经 作者: 祖行 图书分类: 教育/科技 资源格式: PDF 版本: 扫描版 出版社: ...

  8. Java 集合容器篇面试题(上)-王者笔记《收藏版》

    前期推荐阅读: Java基础知识学习总结(上) Java 基础知识学习总结(下) 大学生一个暑假学会5个神仙赚钱技能 | 你学会了几个? 毕设/私活/大佬必备,一个挣钱的开源前后端分离脚手架 目录 一 ...

  9. Java集合Map,set, list 之间的转换

    Java集合Map,set, list 之间的转换 前言: 通过思维导图复习联系,看到一个HashMap排序题上机题之后有的一个感想,题目如下,看看你能时间出来么? 已知一个HashMap<In ...

最新文章

  1. 关于Heritrix学习的问题记录
  2. 数据结构与算法---队列
  3. android xml ui编辑器,Android Studio(八):使用Layout Editor设计UI
  4. C++ Primer 5th笔记(7)chapter7 类
  5. [蓝桥杯2018初赛]方格计数-巧妙枚举,找规,数论
  6. Kafka—配置SASL/PLAIN认证客户端及常用操作命令
  7. 【物联网中间件平台-03】YFIOs安装指南
  8. python怎么用numpy_Python:一篇文章掌握Numpy的基本用法
  9. python基础:购物车代码
  10. 关于锐捷校园网断网的解决办法
  11. pitch、yaw、roll三个角
  12. Packet Tracer 思科模拟器入门教程 之十 路由器单臂路由配置
  13. 3.路由实现(phalapi框架总结)
  14. 【已解决】macbook pro m1芯片ubuntu20.04ARM64虚拟机添加输入法
  15. Python编程:节省内存的办法(持续更新ing...)
  16. 外观模式——透过现象看本质
  17. 浅谈项目责任成本管理
  18. python一键配置多个IP
  19. 华为、阿里等知名公司年终奖发了多少?
  20. Java基础------第一个项目

热门文章

  1. github ssh 配置_Github远程仓库克隆更新本机,SSH协议免密操作配置和注意事项
  2. 【Modern OpenGL】前言
  3. MinGw+Msys搭建环境 编译ffmpeg
  4. 设计模式C++实现 —— 外观模式、组合模式
  5. c语言判断闰年_C语言1博客作业06 - D丶千思
  6. java情书_Java情书已写好,就差妹子了!
  7. 图幅号与经纬度的换算
  8. 【转】[程序集清单定义与程序集引用不匹配]分析及解决
  9. 【转】IsCallBack属性和IsPostBack属性有什么区别?
  10. 浅谈Mysql 表设计规范