`
geeksun
  • 浏览: 952247 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

HashSet解析

阅读更多

           HashSet实现了Set接口,由hash表支持(实际上是一个HashMap的实例)。HashSet不保证集合的迭代顺序;特别是不保证顺序恒久不变。允许使用null元素。

           HashSet为基本操作提供了稳定的性能,这些操作包括add(),remove(),contains()和size(),假定hash函数已经将这些元素正确地分布在桶中。对集合进行迭代所需的时间与与HashSet实例的大小(元素的数量)和底层HashMap的实例的“容量”的和成正比。因此,如果HashSet迭代的性能很重要,财不要将初始容量设置得太高(或将加载因子设置得太低)。在生成HashSet对象时可以设置初始容量,如Set hset = new HashSet(10,0.3),则生成的HashSet对象的初始容量为10,加载因子为0.3。默认构造函数的初始容量是16,加载因子是0.75。

          注意,这个实现不是同步的。 如果多个线程同时访问一个HashSet集合,而其中至少有一个线程修改了该集合,那么它必须同外部保持同步。 

          这通常是通过对自然封装该集合的对象执行同步操作来完成的。如果不存在这样的对象,则应该使用 Collections.synchronizedSet 方法来“包装”集合。最好在创建时完成这一操作,以防止对 HashSet 实例进行意外的不同步访问:

        Set s = Collections.synchronizedSet(new HashSet(...));

此类的 iterator 方法返回的迭代器是快速失败 的:在创建迭代器之后,如果对集合进行修改,除非通过迭代器自身的 remove 方法,否则在任何时间以任何方式对其进行修改,Iterator 都将抛出 ConcurrentModificationException 。因此,面对并发的修改,迭代器很快就会完全失败,而不冒将来在某个不确定时间发生任意不确定行为的风险。

        注意,迭代器的快速失败行为无法得到保证,因为一般来说,不可能对是否出现不同步并发修改做出任何硬性保证。快速失败迭代器在尽最大努力抛出 ConcurrentModificationException 。因此,为提高这类迭代器的正确性而编写一个依赖于此异常的程序是错误做法:迭代器的快速失败行为应该仅用于检测程序错误。

            HashSet类里有一个transient的私有map,构造函数中对这个map进行初始化:

 

         public HashSet() {
               map = new HashMap<E,Object>();
         }
         public HashSet(int initialCapacity, float loadFactor) {
               map = new HashMap<E,Object>(initialCapacity, loadFactor);
         }

        从HashSet的构造函数可以看出,HashSet的底层其实是使用了HashMap,使用HashMap实例进行对集合的元素进行操作,然后再封装成HashSet的操作。

分享到:
评论

相关推荐

Global site tag (gtag.js) - Google Analytics