参考资料:1、数据结构——数组及简介时间复杂度
数组的扩容、缩容是怎么样的?
扩容后的数组和扩容前的数组地址是连续的吗?
数组的插入和删除也是根据偏移量吗?
数组的插入和删除时,数据具体移动是怎么移动的?
知道内存地址是怎么获取该处的数据?(在数组中)
==
常常会问数组和链表的区别,很多人都回答说,“链表适合插入、删除,时间复杂度 O(1);数组适合查找,查找时间复杂度为 O(1)”。
实际上,这种表述是不准确的。数组是适合查找操作,但是查找的时间复杂度并不为 O(1)。即便是排好序的数组,你用二分查找,时间复杂度也是 O(logn)。所以,正确的表述应该是,数组支持随机访问,根据下标随机访问的时间复杂度为 O(1)。
:访问(Acess)和查找(Search)是不一样。
链表的删除的时间复杂度是怎么算出来的?数组的根据下标随机访问的时间复杂度是O(1),这是根据寻址公式得出。
:==
==
数组的内存空间分配原理是啥?数组索引越界的内存分配是怎么样? 尤其文章中的C语言数组索引越界
:==
一、什么是数组?
数组(Array)是一种线性表数据结构。它用一组连续的内存空间,来存储一组具有相同类型的数据。
数据类型和数据结构的区别?
数据结构是一种底层实现。数据类型是由不同数据结构底层实现的类型。
1.1、关键字——线性表
第一是线性表(Linear List)。顾名思义,线性表就是数据排成像一条线一样的结构。每个线性表上的数据最多**只有前和后两个方向。**其实除了数组,链表、队列、栈等也是线性表结构。
相对立的叫非线性表,比如二叉树、堆、图等。之所以叫非线性,是因为,在非线性表中,数据之间并不是简单的前后关系。
1.2、关键字——连续的内存空间和相同类型的数据
正是因为这两个限制,它才有了一个堪称“杀手锏”的特性:“随机访问”(随机访问的意思,就是可以随机选择下标,进行数据访问。)。但有利就有弊,这两个限制也让数组的很多操作变得非常低效,比如要想在数组中删除、插入一个数据,为了保证连续性,就需要做大量的数据搬移工作。
1.3、数组是如何实现根据下标随机访问数组元素的吗?
创建数组时,计算机内存给分配的地址
计算机会给每个内存单元分配一个地址,计算机**通过地址来访问内存中的数据。**当计算机需要随机访问数组中的某个元素时,它会首先通过下面的寻址公式,计算出该元素存储的内存地址:
a[i]_address = base_address + i * data_type_size
base_address 是内存块的首地址,其中 data_type_size 表示**数组中每个元素的大小。**我们举的这个例子里,数组中存储的是 int 类型数据,所以 data_type_size 就为 4 个字节。这个公式非常简单,我就不多做解释了。
为什么有这两个杀手锏:1、连续的内存空间。2、相同的数据类型。可以进行随机访问?
最终是通过地址访问数据,寻址公式的前提就是数据存储在一段连续的内存空间,并且每个数据占内存大小一样即数据类型相同。
二、为什么“插入”和“删除”特别低效?
插入和删除根据计算他的时间复杂度,可以看到他的低效。
插入操作:
情况一(集合内的数据是有序的):
如果在数组的末尾插入元素,那就不需要移动数据了,这时的时间复杂度为 O(1)。
但如果在数组的开头插入元素,那所有的数据都需要依次往后移动一位,所以最坏时间复杂度是 O(n)。 因为我们在每个位置插入元素的概率是一样的,所以平均情况时间复杂度为 (1+2+…n)/n = O(n)。
情况二(集合内的数据是无序的):
如果一个数组中仅仅是存储一些无序的数据,插入到第K个位置,可以将第K个位置的数据赋值给最后一位,然后将插入的数据赋值给第K位,他的时间复杂度就是O(1)。快排的时候会详细讲解。
删除操作:
情况一(正常清除):
和插入类似,如果删除数组末尾的数据,则最好情况时间复杂度为 O(1);如果删除开头的数据,则最坏情况时间复杂度为 O(n);平均情况时间复杂度也为 O(n)。
情况二(标记清除):
实际上,在某些特殊场景下,我们并不一定非得追求数组中数据的连续性。如果我们将多次删除操作集中在一起执行,删除的效率是不是会提高很多呢?
三、警惕数组的访问越界问题
看一段C语言的代码:
int main(int argc, char* argv[]){
int i = 0;
int arr[3] = {0};
for(; i<=3; i++){
arr[i] = 0;
printf("hello world\n");
}
return 0;
}
结果会无限打印 hello world ,C语言的索引越界不会报错,只会无限打印。
**这种情况下,**一般都会出现莫名其妙的逻辑错误,就像我们刚刚举的那个例子,debug 的难度非常的大。而且,很多计算机病毒也正是利用到了代码中的数组越界可以访问非法地址的漏洞,来攻击系统,所以写代码的时候一定要警惕数组越界。
四、容器能否完全替代数组?
4.1、容器是怎么封装数组的?
容器对数组的很多操作(插入、删除)进行封装,还有动态扩容的优势。
ArrayList 已经帮我们实现自动扩容。每次存储空间不够的时候,它都会将空间自动扩容为 1.5 倍大小。
不过,这里需要注意一点,因为扩容操作涉及内存申请和数据搬移,是比较耗时的。所以,如果事先能确定需要存储的数据大小,**最好在创建 ArrayList 的时候事先指定数据大小。**事先指定数据大小可以省掉很多次内存申请和数据搬移操作。代码例子如下:
ArrayList<User> users = new ArrayList(10000);
for (int i = 0; i < 10000; ++i) {
users.add(xxx);
}
4.2、容器不能完全替代数组
1、容器是不支持基本类型,它对基本类型进行了封装。比如 int、long,需要封装为 Integer、Long 类,Autoboxing and unboxing的过程中是耗费性能的。如果想用基本类型或者不想性能耗费就使用数组。
2、 如果数据大小事先已知,并且对数据的操作非常简单,用不到 ArrayList 提供的大部分方法,也可以直接使用数组。
3、还有一个是我个人的喜好,当要表示多维数组时,用数组往往会更加直观。比如 Object[][] array;而用容器的话则需要这样定义:ArrayList<ArrayList > array。
五、为什么大多数编程语言中,数组要从 0 开始编号,而不是从 1 开始呢?
数组的随机访问是根据“下标”,准确的说是“偏移量”,假如a是首地址,a[0]就是偏移为 0 的位置,也就是首地址,计算a[k]的内存地址如下:
a[k]_address = base_address + k * type_size
但是,如果数组从 1 开始计数,那我们计算数组元素 a[k]的内存地址就会变为:
a[k]_address = base_address + (k-1)*type_size
这样就会多一次减法运算,CPU就多了一步减法指令,
5、总结
总的来说就是为了寻址公式减少一次减法运算。
六、内容总结
我们今天学习了数组。它可以说是最基础、最简单的数据结构了。数组用一块连续的内存空间,来存储相同类型的一组数据,最大的特点就是支持随机访问,但插入、删除操作也因此变得比较低效,平均情况时间复杂度为 O(n)。在平时的业务开发中,我们可以直接使用编程语言提供的容器类,但是,如果是特别底层的开发,直接使用数组可能会更合适。
课后思考
前面我基于数组的原理引出 JVM 的标记清除垃圾回收算法的核心理念。我不知道你是否使用 Java 语言,理解 JVM,如果你熟悉,可以在评论区回顾下你理解的标记清除垃圾回收算法。前面我们讲到一维数组的内存寻址公式,那你可以思考一下,类比一下,二维数组的内存寻址公式是怎样的呢?
课后思考—— 答案
JVM标记清除算法:
大多数主流虚拟机采用可达性分析算法来判断对象是否存活,在标记阶段,会遍历所有 GC ROOTS,将所有 GC ROOTS 可达的对象标记为存活。只有当标记工作完成后,清理工作才会开始。
不足:1.效率问题。标记和清理效率都不高,但是当知道只有少量垃圾产生时会很高效。2.空间问题。会产生不连续的内存空间碎片。
二维数组内存寻址:
对于 m * n 的数组,a [ i ][ j ] (i < m,j < n)的地址为:
address = base_address + ( i * n + j) * type_size
另外,对于数组访问越界造成无限循环,我理解是编译器的问题,对于不同的编译器,在内存分配时,会按照内存地址递增或递减的方式进行分配。老师的程序,如果是内存地址递减的方式,就会造成无限循环。