经典的问题,大概查了下不同点有:存储的内容、申请时候响应和效率、申请大小的限制、读取效率这几点。
一、存储内容
栈:在函数调用时,第一个进栈的是主函数中后的下一条指令(函数调用语句的下一条可执行语句)的地址,然后是函数的各个参数,在大多数的C编译器中,参数是由右往左入栈的,然后是函数中的局部变量。注意静态变量是不入栈的。当本次函数调用结束后,局部变量先出栈,然后是参数,最后栈顶指针指向最开始存的地址,也就是主函数中的下一条指令,程序由该点继续运行。操作方式类似于数据结构中的栈。
堆:一般是在堆的头部用一个字节存放堆的大小。堆中的具体内容由程序员安排。若程序员不释放,程序结束时可能由OS回收(和文件描述符一样)。注意它与数据结构中的堆是两回事,分配方式类似于链表,一般用new 和malloc申请。
二、申请后系统的响应
栈:只要栈的剩余空间大于所申请空间,系统将为程序提供内存,否则将报异常提示栈溢出。(函数递归的时候可能发生,尽量减少深层地归)栈由系统自动分配,速度较快。
堆:首先应该知道操作系统有一个记录空闲内存地址的链表,当系统收到程序的申请时,会遍历该链表,寻找第一个空间大于所申请空间的堆结点,然后将该结点从空闲结点链表中删除,并将该结点的空间分配给程序,另外,对于大多数系统,会在这块内存空间中的首地址处记录本次分配的大小,这样,代码中的delete语句才能正确的释放本内存空间。另外,由于找到的堆结点的大小不一定正好等于申请的大小,系统会自动的将多余的那部分重新放入空闲链表中。堆是由new分配的内存,一般速度比较慢,而且容易产生内存碎片,不过用起来最方便。但是如果在服务器中,最好不要频繁的使用new和malloc来申请释放内存,一是需要系统调用,给cpu造成负担,二是内存碎片多会影响效率,好是自己设计一个内存池,然后自己管理内存池。
三、申请大小的限制
栈:在Windows下,栈是向低地址扩展的数据结构,是一块连续的内存的区域。这句话的意思是栈顶的地址和栈的最大容量是系统预先规定好的,在WINDOWS下,栈的大小是2M(也有的说是1M,总之是一个编译时就确定的常数),如果申请的空间超过栈的剩余空间时,将提示overflow。因此,能从栈获得的空间较小。
在linux下一般比这个数值要大,ubantu好像是8M,red hat好像是10M,这个值是可以更改的,用ulimit -a可以查看,-s也可以临时更改,要永久更改要更改/etc/security/limits.conf 这个文件。windows里面是在编译器中可以设置。
堆:堆是向高地址扩展的数据结构,是不连续的内存区域。这是由于系统是用链表来存储的空闲内存地址的,自然是不连续的,而链表的遍历方向是由低地址向高地址。堆的大小受限于计算机系统中有效的虚拟内存。由此可见,堆获得的空间比较灵活,也比较大。
四、读取效率
由于new和malloc返回的为一个指针,所以我们访问堆上的数据的时候都是用的指针,不像在栈上的数据那样一个符号就可能代表一个对象。例如一个数组,如果在栈上,
int a[10] = {0};
int *pa = new int[10]();
这个时候访问的时候相对来说是访问a比pa中的内容快一点的,这也是数组和指针的本质区别。在读取a[1]的时候,编译后代码只需要两步,取得符号a代表的地址,把这个地址加上offset(1个int大小)得到一个新地址,取出这个地址内容。而pa[1]的时候,编译后需要三步,取出pa代表的地址,取得地址中的内容(指针指向的地址)并加上一个offset得到一个新地址,取出这个地址内容。
参考:http://blog.youkuaiyun.com/youmu543/article/details/6206807