mpi排序

思想

将一个较大的需要排序的数组,拆分成等大小的数据段,分配给不同的进程,利用归约排序算法的思想,将不同进程之间的数据进行排序,同时在规约中包含快排结合使用最大程度的加速程序的速度,最后将各个程序的内容发送到根进程中,完成输出。
在这里插入图片描述

#include <stdio.h>
#include <stdlib.h>
#include <time.h>
#include <mpi.h>
#define length 10//0//0000
//快排的实现
void swap(int* data, int i, int j) {
	int temp = data[i];
	data[i] = data[j];
	data[j] = temp;
}

int partition(int* data, int start, int end) {
	if (start >= end) return 0;
	int pivotValue = data[start];
	int low = start;
	int high = end - 1;
	while (low < high) {
		while (data[low] <= pivotValue && low < end) low++;
		while (data[high] > pivotValue && high > start) high--;
		if (low < high) swap(data, low, high);
	}
	swap(data, start, high);
	return high;
}

void quicksort(int* data, int start, int end) {
	if (end - start + 1 < 2) return;
	int pivot = partition(data, start, end);
	quicksort(data, start, pivot);
	quicksort(data, pivot + 1, end);
}
//主函数
int main(int argc, char* argv[]) {
	MPI_Init(&argc, &argv);
	int rank, size;
	MPI_Comm_rank(MPI_COMM_WORLD, &rank);
	MPI_Comm_size(MPI_COMM_WORLD, &size);
	printf("%d\n", size);//显示当前的进程数
	int* data = (int*)malloc(sizeof(int) * length);
	int i;
	for (i = 0; i < length / size; i++)
		data[i] = (i+1)*(rank+1); //对不同进程中的数据段进行赋值
	quicksort(data, 0, length / size);//不同进程中的数据进行快排
	MPI_Status status;
	if (rank == 0) {
		//for (i = 0; i < length / size; i++)
			//printf("%d ", data[i]);
		//printf("\n");
		for (i = 1; i < size; i++)
			MPI_Recv(data + i * length / size, length / size, MPI_INT, i, MPI_ANY_TAG, MPI_COMM_WORLD, &status);
	}
	else {
		MPI_Send(data, length / size, MPI_INT, 0, 0, MPI_COMM_WORLD);
	}
	MPI_Barrier(MPI_COMM_WORLD);
	if (rank == 0) {
		for (int i = 0; i < 10; i++) {
			printf("%d ", data[i]);//打印输出排序结果
		}
	}
	MPI_Finalize();
	return 0;
}

优化一

#include <stdio.h>
#include <stdlib.h>
#include <time.h>
#include <mpi.h>
#define length 10//0//0000

void swap(int* data, int i, int j) {
	int temp = data[i];
	data[i] = data[j];
	data[j] = temp;
}

int partition(int* data, int start, int end) {
	if (start >= end) return 0;
	int pivotValue = data[start];
	int low = start;
	int high = end - 1;
	while (low < high) {
		while (data[low] <= pivotValue && low < end) low++;
		while (data[high] > pivotValue && high > start) high--;
		if (low < high) swap(data, low, high);
	}
	swap(data, start, high);
	return high;
}

void quicksort(int* data, int start, int end) {
	if (end - start + 1 < 2) return;
	int pivot = partition(data, start, end);
	quicksort(data, start, pivot);
	quicksort(data, pivot + 1, end);
}

int main(int argc, char* argv[]) {
	MPI_Init(&argc, &argv);
	int rank, size;
	MPI_Comm_rank(MPI_COMM_WORLD, &rank);
	MPI_Comm_size(MPI_COMM_WORLD, &size);
	printf("%d\n", size);//显示当前的进程数
	
	int* data = (int*)malloc(sizeof(int) * length);
	int* shou = (int*)malloc(sizeof(int) * 2);
	int i;
	if (rank == 0) {
		for (i = 0; i < length; i++)
			data[i] = i; //对不同进程中的数据段进行赋值
	}
	MPI_Scatter(data, length / size, MPI_INT, shou, length / size, MPI_INT, 0, MPI_COMM_WORLD);//使用广播将数据分段广播到不同的进程中
	quicksort(shou, 0, length / size);//不同进程中的数据进行快排
	MPI_Gather(shou, 2, MPI_INT, data, 2, MPI_INT, 0, MPI_COMM_WORLD);//将数据有序拼接在一起
	MPI_Barrier(MPI_COMM_WORLD);
	if (rank == 0) {
	quicksort(data, 0, length);
		for (int i = 0; i < 10; i++) {
			printf("%d ", data[i]);//打印输出排序结果
		}
	}
	MPI_Finalize();
	return 0;
}

优化二

#include <stdio.h>
#include <stdlib.h>
#include <time.h>
#include<math.h>
#include <mpi.h>
#define length 8//0//0000

void swap(int* data, int i, int j) {
	int temp = data[i];
	data[i] = data[j];
	data[j] = temp;
}

int partition(int* data, int start, int end) {
	if (start >= end) return 0;
	int pivotValue = data[start];
	int low = start;
	int high = end - 1;
	while (low < high) {
		while (data[low] <= pivotValue && low < end) low++;
		while (data[high] > pivotValue && high > start) high--;
		if (low < high) swap(data, low, high);
	}
	swap(data, start, high);
	return high;
}

void quicksort(int* data, int start, int end) {
	if (end - start + 1 < 2) return;
	int pivot = partition(data, start, end);
	quicksort(data, start, pivot);
	quicksort(data, pivot + 1, end);
}

int main(int argc, char* argv[]) {
	MPI_Init(&argc, &argv);
	int rank, size;
	MPI_Comm_rank(MPI_COMM_WORLD, &rank);
	MPI_Comm_size(MPI_COMM_WORLD, &size);
	printf("%d\n", size);//显示当前的进程数

	int* data = (int*)malloc(sizeof(int) * length);
	int* shou = (int*)malloc(sizeof(int) * 2);
	int i;
	if (rank == 0) {
		for (i = 0; i < length; i++)
			data[i] = i; //对不同进程中的数据段进行赋值
	}
	int j;
	for (int j = 1; j < sqrt(length); j++){
		MPI_Scatter(data, length / size*j, MPI_INT, shou, length / size*j, MPI_INT, 0, MPI_COMM_WORLD);
	quicksort(shou, 0, length / size);//不同进程中的数据进行快排
	MPI_Gather(shou, length / size * j, MPI_INT, data, length / size * j, MPI_INT, 0, MPI_COMM_WORLD);
}
	MPI_Barrier(MPI_COMM_WORLD);
	if (rank == 0) {
		for (int i = 0; i < 10; i++) {
			printf("%d ", data[i]);//打印输出排序结果
		}
	}
	MPI_Finalize();
	return 0;
}
MPI(Message Passing Interface)是一种用于并行计算的编程模型和库。归并排序是一种经典的排序算法,适合并行计算。 在MPI中,可以通过发送和接收消息来实现进程间的通信。下面是一个基于MPI的归并排序的伪代码: ```python def parallel_merge_sort(data): # 获取进程总数和当前进程编号 size = MPI.COMM_WORLD.Get_size() rank = MPI.COMM_WORLD.Get_rank() # 计算每个进程要处理的数据量 chunk_size = len(data) // size remainder = len(data) % size # 将数据分发到各个进程 if rank == 0: for i in range(size): if i < remainder: chunk = data[i * (chunk_size + 1):(i + 1) * (chunk_size + 1)] else: chunk = data[remainder + i * chunk_size:remainder + (i + 1) * chunk_size] MPI.COMM_WORLD.send(chunk, dest=i, tag=0) # 接收数据 chunk = MPI.COMM_WORLD.recv(source=0, tag=0) # 对本地数据进行排序 chunk.sort() # 归并排序 for step in range(size): # 计算要交换数据的进程编号 partner = (rank + step) % size # 发送和接收数据 sendbuf = chunk recvbuf = MPI.COMM_WORLD.recv(source=partner, tag=step) if rank < partner: sendtag = step recvtag = step + size else: sendtag = step + size recvtag = step MPI.COMM_WORLD.send(sendbuf, dest=partner, tag=sendtag) chunk = merge(chunk, recvbuf) # 将排序好的数据返回 if rank == 0: result = [] for i in range(size): chunk = MPI.COMM_WORLD.recv(source=i, tag=size) result.extend(chunk) return result else: MPI.COMM_WORLD.send(chunk, dest=0, tag=size) ``` 在这个算法中,首先将原始数据分发到各个进程,然后每个进程对本地数据进行排序,接着对每个步骤进行归并排序,并且使用MPI的send和recv函数进行交换数据。最后将排序好的数据返回到主进程。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值