给jdk写注释系列之jdk1.6容器(4)-HashMap源码解析,jdk1.6-hashmap
给jdk写注释系列之jdk1.6容器(4)-HashMap源码解析,jdk1.6-hashmap
本系列:
给jdk写注释系列之jdk1.6容器(1)-ArrayList源码解析
给jdk写注释系列之jdk1.6容器(2)-LinkedList源码解析
给jdk写注释系列之jdk1.6容器(3):Iterator设计模式
前面了解了jdk容器中的两种List,回忆一下怎么从list中取值(也就是做查询),是通过index索引位置对不对,由于存入list的元素时安装插入顺序存储的,所以index索引也就是插入的次序。
Map呢是这样一种容器,它可以存储两个元素键和值,根据键这个关键字可以明确且唯一的查出一个值,这个过程很像查字典,考虑一下使用什么样的数据结构才能实现这种效果呢? 1.自己实现一个Map 先来看一下jdk中map的定义:public interface Map<K,V> { int size(); boolean isEmpty(); boolean containsKey(Object key); boolean containsValue(Object value); V get(Object key); V put(K key, V value); V remove(Object key); void putAll(Map<? extends K, ? extends V> m); void clear(); Set<K> keySet(); Collection<V> values(); Set<Map.Entry<K, V>> entrySet(); interface Entry<K,V> { V getValue(); V setValue(V value); boolean equals(Object o); int hashCode(); } boolean equals(Object o); int hashCode(); }可以看到Map并没有实现Collection接口,也没有实现List接口,因为它可以保存两个属性key-value,和List容器一样还是包含增删改查等基本操作,同时可以看到Map中还定义了一个用来表示键值K-V的接口Entry。 在了解了map的概念和定义后,首先我们自己先来简单写一个Map的实现,看看会遇到什么样的问题。
public class MyMap { private Entry[] data = new Entry[100]; private int size; public Object put(Object key, Object value) { // 检查key是否存在,存在则覆盖 for (int i = 0; i < size; i++) { if (key.equals(data [i].key)) { Object oldValue = data[i].value ; data[i].value = value; return oldValue; } } Entry e = new Entry(key, value); data[size ] = e; size++; return null; } public Object get(Object key) { for (int i = 0; i < size; i++) { if (key.equals(data [i].key)) { return data [i].value; } } return null; } public int size() { return size ; } private class Entry { Object key; Object value; public Entry(Object key, Object value) { this.key = key; this.value = value; } } }上面我们简单实现了一下map的put、get、size等方法,从代码可以看到底层是使用数组来存储数据的。 测试一下上面的方法:
public class Test { public static void main(String[] args) { MyMap map = new MyMap(); map.put( "tstd", "angelababy" ); map.put( "张三" , "李四"); map.put( "tstd", "高圆圆" ); System. out.println(map.size()); System. out.println(map.get("tstd" )); System. out.println(map.get("张三" )); } }
看下结果:
高圆圆 李四
结果好像是没有问题的对不对。但是这么简单嘛?我们来看一下上面的代码存在一些什么样的问题。
观察代码可以看到,get方法中,通过key获取value的方式是通过遍历数组实现,这样显然是非常低效的,同样在put方法中由于要检查key是否已经存在也是通过遍历数组实现,想一下有没有更好的办法呢?能不能像数组那样直接通过下标就可以取得对应的元素呢? 接下来,我们看下HashMap是怎么样实现的。 2.HashMap的定义 在看HashMap定义前,我们首先需要了解hash是什么意思,hash通常被翻译成“散列”,简单解析下(不对的话还请指出^_^),hash就是通过散列算法,将一个任意长度关键字转换为一个固定长度的散列值,但是有一点要指出的是,不同的关键字可能会散列出相同的散列值。什么意思呢?也就是关键字和散列值不是一一对应的,散列值会出现冲突。但是为什么会出现这种情况呢,原因是hash是一种压缩映射,举个例子就是将一个8个字节(二进制64位)的long值转换为一个4个字节(二进制32位)的int值,也就是说需要砍掉4个字节(32位),坑位有限,人太多,所以只能两个人一个坑喽。 ok、了解了hash的概念和特点后,来看下HashMap的定义:public class HashMap<K,V> extends AbstractMap<K,V> implements Map<K,V>, Cloneable, Serializable可以看出HashMap集成了AbstractMap抽象类,实现了Map,Cloneable,Serializable接口,AbstractMap抽象类继承了Map提供了一些基本的实现。 3.底层存储
// 默认初始容量为16,必须为2的n次幂 static final int DEFAULT_INITIAL_CAPACITY = 16; // 最大容量为2的30次方 static final int MAXIMUM_CAPACITY = 1 << 30; // 默认加载因子为0.75f static final float DEFAULT_LOAD_FACTOR = 0.75f; // Entry数组,长度必须为2的n次幂 transient Entry[] table; // 已存储元素的数量 transient int size ; // 下次扩容的临界值,size>=threshold就会扩容,threshold等于capacity*load factor int threshold; // 加载因子 final float loadFactor ;
可以看出HashMap底层是用Entry数组存储数据,同时定义了初始容量,最大容量,加载因子等参数,至于为什么容量必须是2的幂,加载因子又是什么,下面再说,先来看一下Entry的定义。
static class Entry<K,V> implements Map.Entry<K,V> { final K key ; V value; Entry<K,V> next; // 指向下一个节点 final int hash; Entry( int h, K k, V v, Entry<K,V> n) { value = v; next = n; key = k; hash = h; } public final K getKey() { return key ; } public final V getValue() { return value ; } public final V setValue(V newValue) { V oldValue = value; value = newValue; return oldValue; } public final boolean equals(Object o) { if (!(o instanceof Map.Entry)) return false; Map.Entry e = (Map.Entry)o; Object k1 = getKey(); Object k2 = e.getKey(); if (k1 == k2 || (k1 != null && k1.equals(k2))) { Object v1 = getValue(); Object v2 = e.getValue(); if (v1 == v2 || (v1 != null && v1.equals(v2))) return true; } return false; } public final int hashCode() { return (key ==null ? 0 : key.hashCode()) ^ ( value==null ? 0 : value.hashCode()); } public final String toString() { return getKey() + "=" + getValue(); } // 当向HashMap中添加元素的时候调用这个方法,这里没有实现是供子类回调用 void recordAccess(HashMap<K,V> m) { } // 当从HashMap中删除元素的时候调动这个方法 ,这里没有实现是供子类回调用 void recordRemoval(HashMap<K,V> m) { } }
Entry是HashMap的内部类,它继承了Map中的Entry接口,它定义了键(key),值(value),和下一个节点的引用(next),以及hash值。很明确的可以看出Entry是什么结构,它是单线链表的一个节点。也就是说HashMap的底层结构是一个数组,而数组的元素是一个单向链表。
为什么会有这样的设计?我们上面自己实现的map存在一个问题就是查询时需要遍历所有的key,为了解决这个问题HashMap采用hash算法将key散列为一个int值,这个int值对应到数组的下标,再做查询操作的时候,拿到key的散列值,根据数组下标就能直接找到存储在数组的元素。但是由于hash可能会出现相同的散列值,为了解决冲突,HashMap采用将相同的散列值存储到一个链表中,也就是说在一个链表中的元素他们的散列值绝对是相同的。找到数组下标取出链表,再遍历链表是不是比遍历整个数组效率好的多呢? 我们来看一下HashMap的具体实现。 4.构造方法
/** * 构造一个指定初始容量和加载因子的HashMap */ public HashMap( int initialCapacity, float loadFactor) { // 初始容量和加载因子合法校验 if (initialCapacity < 0) throw new IllegalArgumentException( "Illegal initial capacity: " + initialCapacity); if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; if (loadFactor <= 0 || Float.isNaN(loadFactor)) throw new IllegalArgumentException( "Illegal load factor: " + loadFactor); // Find a power of 2 >= initialCapacity // 确保容量为2的n次幂,是capacity为大于initialCapacity的最小的2的n次幂 int capacity = 1; while (capacity < initialCapacity) capacity <<= 1; // 赋值加载因子 this.loadFactor = loadFactor; // 赋值扩容临界值 threshold = (int)(capacity * loadFactor); // 初始化hash表 table = new Entry[capacity]; init(); } /** * 构造一个指定初始容量的HashMap */ public HashMap( int initialCapacity) { this(initialCapacity, DEFAULT_LOAD_FACTOR); } /** * 构造一个使用默认初始容量(16)和默认加载因子(0.75)的HashMap */ public HashMap() { this.loadFactor = DEFAULT_LOAD_FACTOR; threshold = (int)(DEFAULT_INITIAL_CAPACITY * DEFAULT_LOAD_FACTOR); table = new Entry[DEFAULT_INITIAL_CAPACITY]; init(); } /** * 构造一个指定map的HashMap,所创建HashMap使用默认加载因子(0.75)和足以容纳指定map的初始容量。 */ public HashMap(Map<? extends K, ? extends V> m) { // 确保最小初始容量为16,并保证可以容纳指定map this(Math.max(( int) (m.size() / DEFAULT_LOAD_FACTOR) + 1, DEFAULT_INITIAL_CAPACITY ), DEFAULT_LOAD_FACTOR); putAllForCreate(m); }
最后一个构造方法引入一下三个方法进行map元素添加,具体内容不多看了,逻辑和put一样但是少了数组扩容逻辑,直接跳过去看增加方法。
private void putAllForCreate(Map<? extends K, ? extends V> m) { for(Iterator<?extendsMap.Entry<?extendsK, ?extendsV>> i = m.entrySet().iterator(); i.hasNext(); ) { Map.Entry<? extends K, ? extends V> e = i.next(); putForCreate(e.getKey(), e.getValue()); } } /** * This method is used instead of put by constructors and * pseudoconstructors (clone, readObject). It does not resize the table, * check for comodification, etc. It calls createEntry rather than * addEntry. */ private void putForCreate(K key, V value) { int hash = (key == null) ? 0 : hash(key.hashCode()); int i = indexFor(hash, table.length ); for (Entry<K,V> e = table [i]; e != null; e = e. next) { Object k; if (e.hash == hash && ((k = e. key) == key || (key != null && key.equals(k)))) { e. value = value; return; } } createEntry(hash, key, value, i); } void createEntry(int hash, K key, V value, int bucketIndex) { Entry<K,V> e = table[bucketIndex]; table[bucketIndex] = new Entry<K,V>(hash, key, value, e); size++; }看完构造方法有一个疑问一直存在,代码一直确认初始容量和数组长度必须为2的n次幂,而加载因子是为了计算扩容临界值,那么到底HashMap是怎么进行扩容的呢? 5.增加
public V put(K key, V value) { // 如果key为null,调用putForNullKey方法进行存储 if (key == null) return putForNullKey(value); // 使用key的hashCode计算key对应的hash值 int hash = hash(key.hashCode()); // 通过key的hash值查找在数组中的index位置 int i = indexFor(hash, table.length ); // 取出数组index位置的链表,遍历链表找查看是有已经存在相同的key for (Entry<K,V> e = table [i]; e != null; e = e. next) { Object k; // 通过对比hash值、key判断是否已经存在相同的key if (e.hash == hash && ((k = e.key) == key || key.equals(k))) { // 如果存在,取出当前key对应的value,供返回 V oldValue = e. value; // 用新value替换之旧的value e. value = value; e.recordAccess( this); // 返回旧value,退出方法 return oldValue; } } // 如果不存在相同的key // 修改版本+1 modCount++; // 在数组i位置处添加一个新的链表节点 addEntry(hash, key, value, i); // 没有相同key的情况,返回null return null; } private V putForNullKey(V value) { // 取出数组第1个位置(下标等于0)的节点,如果存在则覆盖不存在则新增,和上面的put一样不多讲, for (Entry<K,V> e = table [0]; e != null; e = e. next) { if (e.key == null) { V oldValue = e. value; e. value = value; e.recordAccess( this); return oldValue; } } modCount++; // 如果key等于null,则hash值等于0 addEntry(0, null, value, 0); return null; }
增加和我们上面分析的一样,通过将key做hash取得一个散列值,将散列值对应到数组下标,然后将k-v组成链表节点存进数组中。
上面有三个方法需要重点关注,计算hash值的hash方法,计算数组索引位置的indexFor方法,添加新链表节点的addEntry方法,下面我们逐一的看一下。
/** * Applies a supplemental hash function to a given hashCode, which * defends against poor quality hash functions. This is critical * because HashMap uses power -of- two length hash tables, that * otherwise encounter collisions for hashCodes that do not differ * in lower bits. Note: Null keys always map to hash 0, thus index 0. */ static int hash(int h) { // This function ensures that hashCodes that differ only by // constant multiples at each bit position have a bounded // number of collisions (approximately 8 at default load factor). h ^= (h >>> 20) ^ (h >>> 12); return h ^ (h >>> 7) ^ (h >>> 4); } /** * Returns index for hash code h. */ static int indexFor(int h, int length) { return h & (length-1); }上面这两个方法好难懂啊,又是位移又是异或又是与操作,如果让我们自己来写会怎么写呢,hash方法中直接使用hashCode就好了,indexFor直接取模(h % length)就好了,这两种有什么区别吗,哪个更好呢?来简单分析下(分析的不好请拍砖)。 首先要明白&操作:把两个操作数分别转换为二进制,如果两个操作数的位都是1则为1,否则为0,举个例子:两个数8和9的二进制分别为1000和1001,1000 & 1001 = 1000。 先看下indexFor方法中的h & (length-1) ,这是什么鬼东西。。。 不懂原理只能反着推了。。。我们先来看下一个神奇的推论。。。 2^n转换为二进制是什么样子呢: 2^1 = 10 2^2 = 100 2^3 = 1000 2^n = 1(n个0) 再来看下2^n-1的二进制是什么样子的: 2^1 – 1 = 01 2^2 – 1 = 011 2^3 – 1 = 0111 2^n – 1 = 0(n个1) 我们发现一个吃惊的结果,就是当length=2的n次幂的时候,h & (length-1)的结果,就是0~(length-1)之间的数,而这个结果和h % length是一样的,但当length!=2^n的时候,这个就特点不成立了。解释下就是:2^n – 1转换成二进制就是0+n个1,比如16的二进制10000,15的二进制01111,按照&操作,都是1则为1,否则为0,所以在低位运算的时候(小于等于2^n – 1),值总是与hash相同,而进行高位运算时(大于2^n – 1),其值等于其低位值。 只要知道这个结果,就ok,如果还想更加深入,有个大神写了一篇文章可以参考下http://yananay.iteye.com/blog/910460。 但是为什么不直接取模呢,当然是因为&操作要比除法操作效率高了。 知道了 h & (length-1)的结果等同于h % length后,再来看看上面的hash()方法是怎么回事呢?如果hashCode的低位相同(尤其是等于length位数的部分),那么经过散列后冲突的概率比较大,于是jdk给hash的各位加入了一些随机性。 上面那两个还没懂的话,只要明白含义,然后忘掉他来看增加节点的方法。
/** * 增加一个k-v,hash组成的节点在数组内,同时可能会进行数组扩容。 */ void addEntry( int hash, K key, V value, int bucketIndex) { // 下面两行行代码的逻辑是,创建一个新节点放到单向链表的头部,旧节点向后移 // 取出索引bucketIndex位置处的链表节点,如果节点不存在那就是null,也就是说当数组该位置处还不曾存放过节点的时候,这个地方就是null, Entry<K,V> e = table[bucketIndex]; // 创建一个节点,并放置在数组的bucketIndex索引位置处,并让新的节点的next指向原来的节点 table[bucketIndex] = new Entry<K,V>(hash, key, value, e); // 如果当前HashMap中的元素已经到达了临界值,则将容量扩大2倍,并将size计数+1 if (size ++ >= threshold) resize(2 * table.length ); }这里面有一个需要注意的地方,将新节点指向原来的节点,这里虽然是next,但是却是往回指向的,而不是像上面图中画的由数组第1个节点往后指向,就是说第1个节点指向null,第2个节点指向第1个,第3个节点指向第2个。也就是新节点一直插入在最前端,新节点始终是单向列表的头节点。 再看下扩容的方法:
/** * Rehashes the contents of this map into a new array with a * larger capacity. This method is called automatically when the * number of keys in this map reaches its threshold. * * If current capacity is MAXIMUM_CAPACITY, this method does not * resize the map, but sets threshold to Integer.MAX_VALUE. * This has the effect of preventing future calls. * * @param newCapacity the new capacity, MUST be a power of two; * must be greater than current capacity unless current * capacity is MAXIMUM_CAPACITY (in which case value * is irrelevant). */ void resize( int newCapacity) { // 当前数组 Entry[] oldTable = table; // 当前数组容量 int oldCapacity = oldTable.length ; // 如果当前数组已经是默认最大容量MAXIMUM_CAPACITY ,则将临界值改为Integer.MAX_VALUE 返回 if (oldCapacity == MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return; } // 使用新的容量创建一个新的链表数组 Entry[] newTable = new Entry[newCapacity]; // 将当前数组中的元素都移动到新数组中 transfer(newTable); // 将当前数组指向新创建的数组 table = newTable; // 重新计算临界值 threshold = (int)(newCapacity * loadFactor); } /** * Transfers all entries from current table to newTable. */ void transfer(Entry[] newTable) { // 当前数组 Entry[] src = table; // 新数组长度 int newCapacity = newTable.length ; // 遍历当前数组的元素,重新计算每个元素所在数组位置 for (int j = 0; j < src. length; j++) { // 取出数组中的链表第一个节点 Entry<K,V> e = src[j]; if (e != null) { // 将旧链表位置置空 src[j] = null; // 循环链表,挨个将每个节点插入到新的数组位置中 do { // 取出链表中的当前节点的下一个节点 Entry<K,V> next = e. next; // 重新计算该链表在数组中的索引位置 int i = indexFor(e. hash, newCapacity); // 将下一个节点指向newTable[i] e. next = newTable[i]; // 将当前节点放置在newTable[i]位置 newTable[i] = e; // 下一次循环 e = next; } while (e != null); } } }transfer方法中,由于数组的容量已经变大,也就导致hash算法indexFor已经发生变化,原先在一个链表中的元素,在新的hash下可能会产生不同的散列值,so所有元素都要重新计算后安顿一番。注意在do while循环的过程中,每次循环都是将下个节点指向newTable[i] ,是因为如果有相同的散列值i,上个节点已经放置在newTable[i]位置,这里还是下一个节点的next指向上一个节点(不知道这里是否能理解,画个图理解下吧)。 Map中的元素越多,hash冲突的几率也就越大,数组长度是固定的,所以导致链表越来越长,那么查询的效率当然也就越低下了。还记不记得同时数组容器的ArrayList怎么做的,扩容!而HashMap的扩容resize,需要将所有的元素重新计算后,一个个重新排列到新的数组中去,这是非常低效的,和ArrayList一样,在可以预知容量大小的情况下,提前预设容量会减少HashMap的扩容,提高性能。 再来看看加载因子的作用,如果加载因子越大,数组填充的越满,这样可以有效的利用空间,但是有一个弊端就是可能会导致冲突的加大,链表过长,反过来却又会造成内存空间的浪费。所以只能需要在空间和时间中找一个平衡点,那就是设置有效的加载因子。我们知道,很多时候为了提高查询效率的做法都是牺牲空间换取时间,到底该怎么取舍,那就要具体分析了。 6.删除
/** * 根据key删除元素 */ public V remove(Object key) { Entry<K,V> e = removeEntryForKey(key); return (e == null ? null : e. value); } /** * 根据key删除链表节点 */ final Entry<K,V> removeEntryForKey(Object key) { // 计算key的hash值 int hash = (key == null) ? 0 : hash(key.hashCode()); // 根据hash值计算key在数组的索引位置 int i = indexFor(hash, table.length ); // 找到该索引出的第一个节点 Entry<K,V> prev = table[i]; Entry<K,V> e = prev; // 遍历链表(从链表第一个节点开始next),找出相同的key, while (e != null) { Entry<K,V> next = e. next; Object k; // 如果hash值和key都相等,则认为相等 if (e.hash == hash && ((k = e. key) == key || (key != null && key.equals(k)))) { // 修改版本+1 modCount++; // 计数器减1 size--; // 如果第一个就是要删除的节点(第一个节点没有上一个节点,所以要分开判断) if (prev == e) // 则将下一个节点放到table[i]位置(要删除的节点被覆盖) table[i] = next; else // 否则将上一个节点的next指向当要删除节点下一个(要删除节点被忽略,没有指向了) prev. next = next; e.recordRemoval( this); // 返回删除的节点内容 return e; } // 保存当前节点为下次循环的上一个节点 prev = e; // 下次循环 e = next; } return e; }7.修改 想一下Map中为什么没有修改方法,1,2,3想好了,对于Map,put相同的key,value会被覆盖掉,这是不是就相当于修改呀。 8.查找
public V get(Object key) { // 如果key等于null,则调通getForNullKey方法 if (key == null) return getForNullKey(); // 计算key对应的hash值 int hash = hash(key.hashCode()); // 通过hash值找到key对应数组的索引位置,遍历该数组位置的链表 for (Entry<K,V> e = table [indexFor (hash, table .length)]; e != null; e = e. next) { Object k; // 如果hash值和key都相等,则认为相等 if (e.hash == hash && ((k = e.key) == key || key.equals(k))) // 返回value return e.value ; } return null; } private V getForNullKey() { // 遍历数组第一个位置处的链表 for (Entry<K,V> e = table [0]; e != null; e = e. next) { if (e.key == null) return e.value ; } return null; }从删除和查找可以看出,在根据key查找元素的时候,还是需要通过遍历,但是由于已经通过hash对key散列,要遍历的只是发生冲突后生成的链表,这样遍历的结果就已经少很多了,比我们自己写的完全遍历效率提升了n被。 9.是否包含
/** * Returns <tt>true</tt> if this map contains a mapping for the * specified key. * * @param key The key whose presence in this map is to be tested * @return <tt> true</tt> if this map contains a mapping for the specified * key. */ public boolean containsKey(Object key) { return getEntry(key) != null; } /** * Returns the entry associated with the specified key in the * HashMap. Returns null if the HashMap contains no mapping * for the key. */ final Entry<K,V> getEntry(Object key) { int hash = (key == null) ? 0 : hash(key.hashCode()); for (Entry<K,V> e = table [indexFor (hash, table .length)]; e != null; e = e. next) { Object k; if (e.hash == hash && ((k = e. key) == key || (key != null && key.equals(k)))) return e; } return null; }
containsKey的代码逻辑和get的代码逻辑90%是相同的啊,为什么没有封装下呢?
/** * Returns <tt>true</tt> if this map maps one or more keys to the * specified value. * * @param value value whose presence in this map is to be tested * @return <tt> true</tt> if this map maps one or more keys to the * specified value */ public boolean containsValue(Object value) { if (value == null) return containsNullValue(); Entry[] tab = table; // 遍历整个table查询是否有相同的value值 for (int i = 0; i < tab. length ; i++) // 遍历数组的每个链表 for (Entry e = tab[i] ; e != null ; e = e.next) if (value.equals(e.value )) return true; return false; } /** * Special -case code for containsValue with null argument */ private boolean containsNullValue() { Entry[] tab = table; for (int i = 0; i < tab. length ; i++) for (Entry e = tab[i] ; e != null ; e = e.next) if (e.value == null) return true; return false; }
可以看到针对指定key的查找,由于HashMap在结构上的优化,查找相对是十分高效的,而对于指定value的查找,要遍历整个hash表,这样是非常低效费时的。。。
10.容量检查
/** * Returns the number of key -value mappings in this map. * * @return the number of key- value mappings in this map */ public int size() { return size ; } /** * Returns <tt>true</tt> if this map contains no key -value mappings. * * @return <tt> true</tt> if this map contains no key -value mappings */ public boolean isEmpty() { return size == 0; }11.遍历 关于Map的遍历,需要到后面再分析,因为它牵扯到另外一个容器Set,Set见。 给jdk写注释系列之jdk1.6容器(6)-HashSet源码解析&Map迭代器 第7节《迭代器》 至此,HashMap也就分析的差不多了,我们应该已经明白HashMap能过做到快速查询时建立在其底层的存储结构只上的,学习HashMap也就是对前面的两种数据结构的综合运用,另外这里面有关hash的算法,扩容的方案也应该有所掌握,还是那句话学习应该是先观其大略,先从整体上了解他的实现,比如先了解它的存储结构,而不是一头扎进代码中,另外代码读不懂画画图唱唱歌吧,啦啦啦。 HashMap 完! 参考: 给jdk写注释系列之jdk1.6容器(1)-ArrayList源码解析 给jdk写注释系列之jdk1.6容器(2)-LinkedList源码解析 给jdk写注释系列之jdk1.6容器(6)-HashSet源码解析&Map迭代器 参考资料: http://yananay.iteye.com/blog/910460 http://www.cnblogs.com/ITtangtang/p/3948406.html
用户点评