随机贪心算法简介(搜出一个自己高中的时候写的程序)

本文介绍了作者在高三时期参与信息学奥赛时使用的一种特殊算法——随机贪心算法,并通过一道具体的编程题目来阐述该算法的基本思想及实现过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

高三的时候准备信息学奥赛,到处做编程题。。

 

当时自己为AC了这道题得意了好一阵子…… 是TOJ上的一道题目,

其解题思路涉及到 随机贪心。。

 

什么是随机贪心?这里用我自己的话给个简单的介绍吧。

贪心算法就是根据问题的本质,给出一个最优解导向,然后不断的去迭代进而求出最优解。

而在很多时候,未必能准确的找到这个最优解导向(或者根本不存在,比如NP问题),但却可以找到一个近似的导向算法(近似贪心算法)。那么我们也可以在迭代若干次之后得到一个最优解的近似解。

假如我们打乱整个系统的初始状态为其等效状态,然后再进行上述迭代,又可以求到一个近似解。

如果我们能穷举出所有的等效初始状态,然后从所有的近似解里取最优解,那么就可以得到整个问题的最优解了。

而在实际情况中,可能无法枚举所有情况(复杂度太高),那么我们可以不断的随机去模拟初始状态,然后从该状态求近似解。

然后我们多次随机取其中的最佳值。这样,我们随机次数越高,结果就越准确。

我们把这种算法叫做随机贪心算法。

 

发上来纪念一下,这段青涩的代码,哈哈

记得当初我还写了个小解题报告,存在 yeah.net的邮箱里。。今天去看,居然因为我长期不登陆把我的删掉了。。可恶

 

{$N+}
program tju1033;
const
	limit=18;
var
	Ham:array[0..limit+1] of integer;
	n,i,u:integer;
	min:double;
	cost:array[1..limit,1..limit] of double;
	x,y:array[1..limit] of double;

procedure init;
var
	i,j:integer;
begin
	readln(n);
	for i:=1 to n do readln(x[i],y[i]);
	for i:=1 to n do
	for j:=1 to n do
		cost[i,j]:=sqrt(sqr(x[i]-x[j])+sqr(y[i]-y[j]));
	for i:=0 to n+1 do Ham[i]:=i;
end;

procedure Hamilton_Change;
var
	finish:boolean;
	i,j,k,tmp:integer;
begin
	finish:=false;
	Ham[0]:=Ham[1];
	Ham[n+1]:=Ham[n];
	while not finish do
	begin
		finish:=true;
		for i:=1 to n do
		for j:=i+1 to n do
			if cost[ Ham[i-1],Ham[i] ]+cost[ Ham[j],Ham[j+1] ]
			> cost[ Ham[i-1],Ham[j] ]+cost[ Ham[i],Ham[j+1] ] then
		begin
			for k:=0 to (j-i) div 2 do
			begin
				tmp:=Ham[i+k];
				Ham[i+k]:=Ham[j-k];
				Ham[j-k]:=tmp;
			end;
			finish:=false;
			Ham[0]:=Ham[1];
			Ham[n+1]:=Ham[n];
		end;
	end;
end;

procedure Count_Ans;
var
	total:double;
	i:integer;
begin
	total:=0;
	for i:=1 to n-1 do
	total:=total+cost[ Ham[i],Ham[i+1] ];
	if total<min then min:=total;
end;

procedure Random_adjust;
var
	i,a,b,tmp:integer;
begin
	for i:=1 to 1000 do
	begin
		a:=random(n+1);
		b:=random(n+1);
		if (a<>b) and (a<>0) and (b<>0) then
		begin
			tmp:=Ham[a];
			Ham[a]:=Ham[b];
			Ham[b]:=tmp;
		end;
	end;
end;

begin
	randomize;
	while not eof do
	begin
		init;
		min:=maxint;
		Hamilton_Change;
		Count_Ans;
		for i:=1 to 500 do
		begin
			Random_adjust;
			Hamilton_Change;
			Count_Ans;
		end;
		writeln(min:0:2);
	end;
end.

 

### 贪心随机自适应搜索过程 (GRASP) 贪心随机自适性搜索程序(Greedy Randomized Adaptive Search Procedure, GRASP)是一种元启发式优化算法,广泛应用于组合优化问题。它通过迭代构建解并对其进行局部改进来寻找高质量解决方案。 #### 基本原理 GRASP 的核心在于其两阶段结构:**构造阶段**和**局部搜索阶段**。在构造阶段,部分贪婪的选择机制被引入到随机化过程中,从而形成候选列表(Restricted Candidate List, RCL)。RCL 是基于某种评估函数筛选出来的较优选项集合[^1]。随后,在此范围内随机选取元素完成当前解的逐步扩展直至得到完整的初始解。 接着进入第二步——局部搜索阶段,这里采用特定策略进一步提升由前一阶段产生的初步方案质量。通常会运用诸如爬山法之类的简单技术反复调整直到无法再改善为止[^2]。 以下是 Python 实现的一个简化版本: ```python import random def grasp(num_iterations, construct_solution, local_search): best_solution = None best_cost = float('inf') for _ in range(num_iterations): # 构造阶段 initial_solution = construct_solution() # 局部搜索阶段 improved_solution = local_search(initial_solution) cost = calculate_cost(improved_solution) if cost < best_cost: best_solution = improved_solution best_cost = cost return best_solution, best_cost def calculate_cost(solution): """计算给定解的成本""" pass # 需要具体定义成本函数 # 定义具体的构造函数与局部搜索逻辑... ``` 上述代码框架展示了如何利用循环执行多次迭代操作,并记录每次运行后的最优结果及其对应代价值。 #### 应用场景举例 该方法适用于解决旅行商问题(TSP)[^3]、图着色问题以及资源分配等多种离散型最优化难题上表现出良好效果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值