编程珠玑第八章第十题

问题:在给定的一个数组中,找出连续的子序列,使其和与0最接近。如2,-3,4,5,-5.那么需要找的子序列是5,-5.他们的和是0,最符合结果。另外如2,-3,4,5,那么需要找的子序列是2,-3,和的结果是-1.与0最接近。

问题的解决思路来自于编程珠玑的课后答案:用一个数组,数组的长度为原始数列的长度加上一.结合例子说明:对于给定的数组是int a[5] = {-1,-1,2,1,2,3}。那么我们定义一个数组sum[n+1].sum[0] = 0,sum[1] = sum[0]+a[0],sum[2] = sum[1]+a[1].......sum[n] = sum[n-1]+a[n-1];最后sum[i]里面存放的是a[0,1,.....i-1]的和。对sum数组进行排序。取出相邻的差值最小的sum[i],sum[j]就是想要的结果。

#include<iostream>
#include<algorithm>
using namespace std;
int main()
{
	int testArray[] = { -1, - 1, 2, 1, 2, 3 };
	const int size = sizeof(testArray) / sizeof(int);
	//求出数组中连续的子序列的和,找出和0最相近的值
	int sum[size+1];    //sum[i]是从testArray[0]到testArray[i-1]的和
	sum[0] = 0;
	for (int i = 1; i <= size; ++i){
		sum[i] = sum[i - 1] + testArray[i-1];
	}
	
	sort(sum,sum+size+1);
	int minVal = sum[1] - sum[0];
	for (int i = 1; i <= size; ++i)
	{
		minVal = min(minVal, sum[i] - sum[i - 1]);
	}
	cout << minVal;    //连续子序列中绝对值最接近0的数。
	return 0;
}
实验用了好多组数,结果正确,其实原理比较简单,就是在是拍好序的数组中,找出两个相邻的,且差值最小。但是里面有陷阱,我看到很多代码,对于sum数组,它们对sum[i]的定义是sum[i]是从testArray[0]到testArray[i]的和,然后再利用上面的方法,很可能结果不对,读者自己思考吧。


### 编程珠玑第一:磁盘排序实现方法 对于大规模数据的排序问,尤其是当可用内存有限而数据量远超内存容量时,《编程珠玑》中的经典案例提供了一种分治策略来解决问。以下是针对此问的具体分析解决方案。 #### 背景描述 在实际应用中,如果需要对一个包含大量记录(如10,000,000条记录)的磁盘文件进排序,并且每条记录是一个7位整数,同时仅有1MB的内存可供使用,则传统的基于内存的排序算法无法直接适用。此时需考虑外部排序技术[^2]。 #### 外部排序的核心思想 由于内存限制,整个文件不可能一次性加载到内存中完成排序操作。因此,通常会采取如下步骤: 1. **分割文件** 将大文件划分为若干个小文件,使得每个小文件都可以完全载入内存并利用内部排序算法对其进排序。例如,在本例中可将原始文件分成多个子集,每个子集中包含一定数量的记录以便于它们能够被读取至内存中处理。 2. **内部排序** 对每一个单独的小文件执高效的内部排序算法(比如快速排序或者归并排序)。这些经过初步整理后的有序片段会被写回到硬盘上形成临时文件。 3. **多路归并** 当所有的部分都已各自排好序之后,最后一步便是把这些已经排序好的小文件通过一种称为“k-way merge”的过程组合成最终的一个整体有序的大文件。这一阶段可能还需要额外的技术支持以优化性能,像优先队可以帮助管理来自不同源流的数据项比较工作。 #### 示例代码展示 下面给出一段伪代码用于说明上述逻辑流程的一部分——即如何创建初始的那些小型有序文件以及简单的两路归并演示: ```python def sort_large_file(input_filename, output_filename, memory_limit=1e6): import os # 假设每条记录占用固定字节数 size_per_record size_per_record = 8 # 字节大小估计值 records_in_memory = int(memory_limit / size_per_record) temp_files = [] with open(input_filename, 'r') as infile: while True: lines = list(islice(infile, records_in_memory)) if not lines: break sorted_lines = sorted(lines, key=lambda line: int(line.strip())) temp_fd, temp_path = tempfile.mkstemp() with os.fdopen(temp_fd, 'w') as tmpfile: tmpfile.writelines(sorted_lines) temp_files.append(temp_path) k_way_merge(temp_files, output_filename) def two_way_merge(file_a, file_b, out_file): """简单版本的双路合并""" with open(file_a, 'r') as fa, \ open(file_b, 'r') as fb, \ open(out_file, 'w') as fo: a_line = next(fa, None) b_line = next(fb, None) while a_line is not None or b_line is not None: if (b_line is None) or ((a_line is not None) and int(a_line.strip()) <= int(b_line.strip())): fo.write(a_line) a_line = next(fa, None) else: fo.write(b_line) b_line = next(fb, None) ``` 以上仅为简化版示意程序;真实场景下还需注意边界条件、错误检测等问。 #### 总结 综上所述,面对超出内存容量的大规模数据排序需求时,“先分解再逐步聚合”的思路非常有效。这种方法不仅适用于《编程珠玑》所讨论的情况,也广泛应用于其他大数据领域内的各种挑战之中。 ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值