智能优化算法-粒子群算法

以往的优化算法都是通过单一的节点来寻找最优值,比如对于爬山问题,我们总是预估一个人进行爬山,但是一个个体的力量是很小的。比如一个人很容易走到一个局部最优解,再也出不来;另外比如阿尔卑斯山和珠穆朗玛峰,如果一个人走到了阿尔卑斯山,即便他可以通过其他方式再到达珠穆朗玛峰,很显然,横跨欧亚大陆的距离太长了,浪费了不少时间。所以,如果是群体算法,一群人爬山,我可以让一部人去欧洲爬山,一部分人去亚洲,一部分人去非洲,然后,这些人能够互相交流,这样,算法不仅仅比较了自己的经验值,还利用了群体的经验值。但是,有一个问题,假如有一个人先走到了阿尔卑斯山,其他人都在平地,基于群体智能,是不是每个人不用再爬了,直接到阿尔卑斯山寻找?并不是,这里的算法使用了群体智能和个体智能的综合,即每个人并不会直接过来,而是会判断自己当前的位置和群体最优解的位置权重,如果相差过大,即便回到阿尔卑斯山,也会生成很大的步长,下一次选方向时,仍会直接跨过欧洲到达亚洲,即即便都回到了阿尔卑斯山,但是步长相差很大的那些人还是能够再跨回中国寻找珠穆朗玛峰。

  • 描述
    群体智能如遗传算法,粒子群算法、蚁群算法,都是使用的群体来进行决策,而不是单个个体。

  • 算法原理
    以往我们的算法是这样更新最新值得:x=x-w*v
    其中x是输入值,v是步长,w是步长权重(默认不改变),更新条件为当前值小于最小值时,这时,x的改变只和个体有关。
    而对于粒子群算法,有两处不同:

    • 1、x更新条件不同:使用了个体比较和群体比较,对于每一个个体的遍历,不仅仅比较个体最小值,而且还比较群体最小值。
    • 2、以上方式还是有缺陷,即群体最后可能都会汇聚在一个点出不来,所以映入了权重系数来区分个体的步长,使得即便汇聚在一起,步长却不一样(步长即速度)。更新步长公式:V = w * V + c1 * r1 * (pbest - X) + c2 * r2 * (gbest - X),更新输入值xX = X + V。其中w为惯性权重,c1\c2分别为个体步长权重和群体补偿权重,即用来调节比重占比,防止一个音素影响太大,r1\r2为[0-1]之间的随机值,pbest\gbest分别为个体最优值和群体最优值。
  • PSO流程(cd相当于条件1,e相当于条件2)
    a). 初始化一群微粒(群体规模为m),包括随机的位置和速度;
    b). 评价每个微粒的适应度;
    c). 对每个微粒,将它的适应值和它经历过的最好位置pbest的作比较,如果较好,则将其作为当前的最好位置pbest;
    d). 对每个微粒,将它的适应值和全局所经历最好位置gbest的作比较,如果较好,则重新设置gbest的索引号;
    e). 根据方程(1)变化微粒的速度和位置;
    f). 如未达到结束条件(通常为足够好的适应值或达到一个预设最大代数Gmax),回到b)。

import numpy as np
import random
import matplotlib.pyplot as plt


# ----------------------PSO参数设置---------------------------------
class PSO():
    def __init__(self, pN, dim, max_iter):
        self.w = 0.8
        self.c1 = 2
        self.c2 = 2
        self.r1 = 0.6
        self.r2 = 0.3
        self.pN = pN  # 粒子数量
        self.dim = dim  # 搜索维度
        self.max_iter = max_iter  # 迭代次数
        self.X = np.zeros((self.pN, self.dim))  # 所有粒子的位置和速度
        self.V = np.zeros((self.pN, self.dim))
        self.pbest = np.zeros((self.pN, self.dim))  # 个体经历的最佳位置和全局最佳位置
        self.gbest = np.zeros((1, self.dim))
        self.p_fit = np.zeros(self.pN)  # 每个个体的历史最佳适应值
        self.fit = 1e10  # 全局最佳适应值

    # ---------------------目标函数Sphere函数-----------------------------
    # 这里用于求函数最优解
    def function(self, X):
        # return X**2-4*X+3+7*X**4+X**3-X**5
        return X ** 2 - 4 * X + 3


    # ---------------------初始化种群----------------------------------
    def init_Population(self):
        for i in range(self.pN):
            for j in range(self.dim):
                self.X[i][j] = random.uniform(0, 1)
                self.V[i][j] = random.uniform(0, 1)
            self.pbest[i] = self.X[i]
            tmp = self.function(self.X[i])
            self.p_fit[i] = tmp
            if tmp < self.fit:
                self.fit = tmp
                self.gbest = self.X[i]

                # ----------------------更新粒子位置----------------------------------

    def iterator(self):
        fitness = []
        for t in range(self.max_iter):

            # 1、更新个体位置和群体位置
            for i in range(self.pN):  # 更新gbest\pbest
                temp = self.function(self.X[i])
                if temp < self.p_fit[i]:  # 更新个体最优
                    self.p_fit[i] = temp
                    self.pbest[i] = self.X[i]
                    if self.p_fit[i] < self.fit:  # 更新全局最优
                        self.gbest = self.X[i]
                        self.fit = self.p_fit[i]

            # 2、更新步长\速度
            for i in range(self.pN):
                self.V[i] = self.w * self.V[i] + self.c1 * self.r1 * (self.pbest[i] - self.X[i]) + \
                            self.c2 * self.r2 * (self.gbest - self.X[i])
                self.X[i] = self.X[i] + self.V[i]
            fitness.append(self.fit)
            print(self.X[0], end=" ")
            print(self.fit)  # 输出最优值
        return fitness

        # ----------------------程序执行-----------------------


my_pso = PSO(pN=30, dim=1, max_iter=100)
my_pso.init_Population()
fitness = my_pso.iterator()
# -------------------画图--------------------
plt.figure(1)
plt.title("Figure1")
plt.xlabel("iterators", size=14)
plt.ylabel("fitness", size=14)
t = np.array([t for t in range(0, 100)])
fitness = np.array(fitness)
plt.plot(t, fitness, color='b', linewidth=3)
plt.show()

参考文章:
http://www.omegaxyz.com/2018/01/12/python_pso/
http://chuansong.me/n/1497455951515

### 搜索算法、进化算法和群智能算法的概念、代表算法、原理及区别 #### 搜索算法 搜索算法是一类用于在数据结构中查找特定元素或路径的算法。其核心目标是找到满足某些条件的最佳解或近似解。搜索算法可以分为两类:盲目搜索和启发式搜索[^1]。 - **代表算法**: - 盲目搜索:深度优先搜索(DFS)、广度优先搜索(BFS)。 - 启发式搜索:A*算法、Dijkstra算法。 - **原理**: 搜索算法通过逐步探索状态空间,寻找从初始状态到目标状态的路径。例如,广度优先搜索会逐层扩展节点,而A*算法则结合了启发函数来指导搜索方向[^2]。 #### 进化算法 进化算法是一种基于生物进化的优化方法,模拟自然选择和遗传机制来解决复杂问题。它通过种群迭代的方式逐步逼近最优解。 - **代表算法**: - 遗传算法(GA) - 进化策略(ES) - 遗传编程(GP) - **原理**: 进化算法的核心操作包括选择、交叉和变异。种群中的个体经过多次迭代后,适应度较高的个体更有可能被保留下来,从而逐渐优化解的质量[^3]。 #### 群智能算法智能算法源于对自然界中群体行为的研究,如蚂蚁觅食、鸟群飞行等。这类算法利用群体成员之间的协作与竞争来解决问题。 - **代表算法**: - 粒子群优化(PSO) - 蚁群优化(ACO) - 蜂群算法(ABC) - **原理**: 群智能算法通过模拟群体的行为模式,让每个个体根据局部信息进行决策,并通过共享信息实现全局优化。例如,在粒子群优化中,每个粒子根据自身经验和群体最优经验调整位置[^4]。 #### 区别 | 特性 | 搜索算法 | 进化算法 | 群智能算法 | |-----------------|--------------------------------------|-----------------------------------|---------------------------------| | **基础理论** | 数据结构与图论 | 生物进化理论 | 自然界群体行为 | | **适用范围** | 图形搜索、路径规划 | 优化问题 | 复杂优化问题 | | **求解方式** | 确定性或半确定性 | 随机性 | 随机性 | | **代表性算法** | BFS、DFS、A* | GA、ES、GP | PSO、ACO、ABC | ```python # 示例代码:简单的A*算法实现 import heapq def a_star(graph, start, goal): open_set = [] heapq.heappush(open_set, (0, start)) came_from = {} g_score = {node: float('inf') for node in graph} g_score[start] = 0 f_score = {node: float('inf') for node in graph} f_score[start] = heuristic(start, goal) while open_set: current = heapq.heappop(open_set)[1] if current == goal: return reconstruct_path(came_from, current) for neighbor in graph[current]: tentative_g_score = g_score[current] + graph[current][neighbor] if tentative_g_score < g_score[neighbor]: came_from[neighbor] = current g_score[neighbor] = tentative_g_score f_score[neighbor] = tentative_g_score + heuristic(neighbor, goal) if neighbor not in [i[1] for i in open_set]: heapq.heappush(open_set, (f_score[neighbor], neighbor)) return None def heuristic(a, b): return abs(a[0] - b[0]) + abs(a[1] - b[1]) def reconstruct_path(came_from, current): total_path = [current] while current in came_from: current = came_from[current] total_path.append(current) return total_path[::-1] ```
评论 1
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值