+18888889999
诚信为本:市场永远在变,诚信永远不变。

学习总结——基础优化算法学习

你的位置: 首页 > 门徒平台资讯

学习总结——基础优化算法学习

2024-03-11 12:37:42

除了学习,总结也很重要,不总结的学习就像缺了光照的树苗,很难茁壮成长,而且学了这段时间总觉得自己没有一点系统的认识。博主今天停下来想一想,并对最近这段时间以来的学习进行一个总结归纳,方便自己学习多照和发现不足,弥补不足。

最近学习了这些基础的优化算法,归纳总结如下:
1.DE算法:
差分进化算法,分别进行变异,交叉和选择进行优化。

2.PSO算法:
粒子群优化。通过速度和位置使粒子的位置发生改变,最后找出全局最优位置。学习方向(也就是粒子移动(进化的)方向)为pbest(局部最优)和gbest(全局最优)分别乘以随机权重的和。

3.CODE算法:
在DE的基础上组合试验向量和控制参数的方法(组合了三种DE的突变策略和三组(突变因子(又叫缩放因子)和交叉常数)控制参数)。

4.JADE算法:
带有外部档案(又叫外部存档或外部集合)的自适应差分进化。将上一代较差的个体放入档案A中,并将成功产生新后代个体的CR(交叉因子)和F(缩放因子)分别放入集合中。

5.SHADE算法:
在DE的基础上加入了成功历史的参数自适应机制进行改进。用高斯随机分布对CR(交叉概率)进行变化,用柯西随机对F(突变或叫缩放因子,即步长)进行变化。

6.LSHADE算法:
在SHADE的基础上提出了新的突变策略的改进,用来解决全局数字优化问题。(分别是向全局最好、中等和最差的粒子学习)

7.DNLPSO算法:
基于粒子群优化算法的动态邻域学习,来解决数字优化问题。在CLPSO的基础上加入了邻域的概念,并从邻域中选择pbest(局部最优)。而CLPSO是在PSO的基础上加入了二进制锦标赛选择pbest,并去掉了gbest(全局最优)那一项。(两个代码一起体现在CLPSO中)

8.MOEA/D算法:
基于分解的多目标进化算法。采用的是切比雪夫的分解方法,将一个m维的多目标问题转化成n个子问题(本文只考虑了最简单的情况,即n个子问题都是一维的),然后并行优化各个子问题。

地址:海南省海口市玉沙路58号  电话:0898-66889888  手机:18888889999
Copyright © 2012-2018 门徒-门徒娱乐-注册登录站 版权所有 ICP备案编:琼ICP备88889999号 

平台注册入口