数组

总结:

数组用一块连续的内存空间,来存储相同类型的一组数据,最大的特点就是支持随机访问,但插入、删除操作也因此变得比较低效,平均情况时间复杂度为O(n)。在平时的业务开发中,我们可以直接使用编程语言提供的容器类,但是,如果是特别底层的开发,直接使用数组可能会更合适。

什么是数组?

数组(Array)是一种线性表数据结构。它用一组连续的内存空间,来存储一组具有相同类型的数据。

这个定义里有几个关键词,理解了这几个关键词,就能彻底掌握数组的概念了。

第一是线性表(Linear List)。顾名思义,线性表就是数据排成像一条线一样的结构。每个线性表上的数据最多只有前和后两个方向。其实除了数组,链表、队列、栈等也是线性表结构。而与它相对立的概念是非线性表,比如二叉树、堆、图等。之所以叫非线性,是因为,在非线性表中,数据之间并不是简单的前后关系。

第二个是连续的内存空间和相同类型的数据。正是因为这两个限制,它才有了一个堪称“杀手锏”的特性:“随机访问”。但有利就有弊,这两个限制也让数组的很多操作变得非常低效,比如要想在数组中删除、插入一个数据,为了保证连续性,就需要做大量的数据搬移工作。

数组是如何实现根据下标随机访问数组元素的?

通过数组首地址加偏移量来实现。

拿一个长度为10的int类型的数组int[] a = new int[10]来举例。计算机给数组a[10],分配了一块连续内存空间1000~1039,其中,内存块的首地址为base_address = 1000。

计算机会给每个内存单元分配一个地址,计算机通过地址来访问内存中的数据。当计算机需要随机访问数组中的某个元素时,它会首先通过下面的寻址公式,计算出该元素存储的内存地址:a[i]_address = base_address + i * data_type_size其中data_type_size表示数组中每个元素的大小。举的这个例子里,数组中存储的是int类型数据,所以data_type_size就为4个字节。

低效的“插入”和“删除”;以及优化方案

插入和删除在尾部操作时间复杂度为O(1),在头部为O(n),平均为(1+2+...n)/n=O(n)。相比链表,为了保证数据的连续性和有序性,插入和删除操作需要移动相应的数据,效率低;但在一些特殊情况我们可以做出适当的优化。

插入操作优化:

如果数组中的数据是有序的,在k位置插入一个新的元素时,就搬移k之后的数据,然后执行插入操作(时间复杂度为O(k))。

快排思想:

如果数组中存储的数据并没有任何规律,数组只是被当作一个存储数据的集合。直接将第k位的数据搬移到数组元素的最后,把新的元素直接放入第k个位置,降为O(1)。

为了更好地理解,我们举一个例子。假设数组a[10]中存储了如下5个元素:a,b,c,d,e。我们现在需要将元素x插入到第3个位置。我们只需要将c放入到a[5],将a[2]赋值为x即可。最后,数组中的元素如下: a,b,x,d,e,c。

利用这种处理技巧,在特定场景下,在第k个位置插入一个元素的时间复杂度就会降为O(1)。这个处理思想在快排中也会用到。

再来看删除操作。

如果我们要删除第k个位置的数据,为了内存的连续性,也需要搬移数据,不然中间就会出现空洞,内存就不连续了。和插入类似,如果删除数组末尾的数据,则最好情况时间复杂度为O(1);如果删除开头的数据,则最坏情况时间复杂度为O(n);平均情况时间复杂度也为O(n)。

删除操作优化:

快排思想:数据没有规律时,可以将要删除的元素与尾部元素交换后做删除操作,降为O(1)。(同插入)

JVM标记清除垃圾回收思想:不保证物理存储上的连续,将删除元素标记为删除。当数组没有更多空间存储数据时,我们再触发执行一次真正的删除操作,这样就大大减少了删除操作导致的数据搬移。

JVM标记清除详解:

实际上,在某些特殊场景下,我们并不一定非得追求数组中数据的连续性。如果我们将多次删除操作集中在一起执行,删除的效率是不是会提高很多呢?我们继续来看例子。数组a[10]中存储了8个元素:a,b,c,d,e,f,g,h。现在,我们要依次删除a,b,c三个元素。

为了避免d,e,f,g,h这几个数据会被搬移三次,我们可以先记录下已经删除的数据。每次的删除操作并不是真正地搬移数据,只是记录数据已经被删除。当数组没有更多空间存储数据时,我们再触发执行一次真正的删除操作,这样就大大减少了删除操作导致的数据搬移。

“高效”的查找

数组是适合查找操作,但是查找的时间复杂度并不为O(1)。即便是排好序的数组,用二分查找,时间复杂度也是O(logn)。无序的数组和链表按值查找时间复杂度都为O(n)。

所以,正确的表述应该是:

数组支持随机访问,根据下标随机访问的时间复杂度为O(1)。排好序的数组查找时间复杂度为O(logn),且支持范围查找。

警惕数组越界访问

数组越界在C语言中是一种未决行为,并没有规定数组访问越界时编译器应该如何处理。因为,访问数组的本质就是访问一段连续内存,只要数组通过偏移计算得到的内存地址是可用的,那么程序就可能不会报任何错误。这种情况下,一般都会出现莫名其妙的逻辑错误,debug的难度非常的大。而且,很多计算机病毒也正是利用到了代码中的数组越界可以访问非法地址的漏洞,来攻击系统,所以写代码的时候一定要警惕数组越界。

但并非所有的语言都像C一样,把数组越界检查的工作丢给程序员来做,像Java本身就会做越界检查,当出现下标越界时,就会抛出java.lang.ArrayIndexOutOfBoundsException。

Java中,ArrayList与数组相比,到底有哪些优势呢?

总结:操作更简单(细节封装),支持动态扩容

详解:

ArrayList最大的优势就是可以将很多数组操作的细节封装起来。比如前面提到的数组插入、删除数据时需要搬移其他数据等。

另外,它还有一个优势,就是支持动态扩容。数组本身在定义的时候需要预先指定大小,因为需要分配连续的内存空间。如果我们申请了大小为10的数组,当第11个数据需要存储到数组中时,我们就需要重新分配一块更大的空间,将原来的数据复制过去,然后再将新的数据插入。如果使用ArrayList,我们就完全不需要关心底层的扩容逻辑,ArrayList已经帮我们实现好了。每次存储空间不够的时候,它都会将空间自动扩容为1.5倍大小。

不过,这里需要注意一点,因为扩容操作涉及内存申请和数据搬移,是比较耗时的。所以,如果事先能确定需要存储的数据大小,最好在创建ArrayList的时候事先指定数据大小。比如我们要从数据库中取出10000条数据放入ArrayList。事先指定数据大小可以省掉很多次内存申请和数据搬移操作,从而提升效率。

数组会更合适哪些情况?

既然ArrayList这么好,那什么情况下更适合使用数组呢?

1.Java ArrayList无法存储基本类型,比如int、long,需要封装为Integer、Long类,而Autoboxing、Unboxing则有一定的性能消耗,所以如果特别关注性能,或者希望使用基本类型,就可以选用数组。

2.如果数据大小事先已知,并且对数据的操作非常简单,用不到ArrayList提供的大部分方法,也可以直接使用数组。

3.当要表示多维数组时,用数组往往会更加直观。而用容器的话则需要这样定义:ArrayList<arraylist> array。</arraylist>

总结一下,对于业务开发,直接使用容器就足够了,省时省力。毕竟损耗一丢丢性能,完全不会影响到系统整体的性能。但如果你是做一些非常底层的开发,比如开发网络框架,性能的优化需要做到极致,这个时候数组就会优于容器,成为首选。

为什么大多数编程语言中,数组要从0开始编号,而不是从1开始呢?

总结:数组下标表示偏移量,随机访问数组元素时a[k]address = base_address + k * type_size少一次减法运算。另一方面,C语言是从0开始编号,很多语言为了学习方便都效仿了C。

从数组存储的内存模型上来看,“下标”最确切的定义应该是“偏移(offset)”。前面也讲到,如果用a来表示数组的首地址,a[0]就是偏移为0的位置,也就是首地址,a[k]就表示偏移k个type_size的位置,所以计算a[k]的内存地址只需要用这个公式:a[k]address = base_address + k * type_size

但是,如果数组从1开始计数,那我们计算数组元素a[k]的内存地址就会变为:a[k]_address = base_address + (k-1)*type_size对比两个公式,可以发现,从1开始编号,每次随机访问数组元素都多了一次减法运算,对于CPU来说,就是多了一次减法指令。数组作为非常基础的数据结构,通过下标随机访问数组元素又是其非常基础的编程操作,效率的优化就要尽可能做到极致。所以为了减少一次减法操作,数组选择了从0开始编号,而不是从1开始。

上面解释得再多其实都算不上压倒性的证明,说数组起始编号非0开始不可。最主要的原因可能是历史原因。C语言设计者用0开始计数数组下标,之后的Java、JavaScript等高级语言都效仿了C语言,或者说,为了在一定程度上减少C语言程序员学习Java的学习成本,因此继续沿用了从0开始计数的习惯。实际上,很多语言中数组也并不是从0开始计数的,比如Matlab。甚至还有一些语言支持负数下标,比如Python。

二维数组的内存寻址公式是怎样的呢?

二维数组内存寻址:对于 m * n 的数组,a [ i ][ j ] (i < m,j < n)的地址为:address = base_address + ( i * n + j) * type_size