Page 152 - 《软件学报》2021年第12期
P. 152

3816                                Journal of Software  软件学报 Vol.32, No.12, December 2021

             •   一种为真实评估,即用原昂贵问题进行评估,正如引言部分提到的,用原昂贵问题进行评估一般需要仿
                真计算、真实实验、数据驱动的方式,需要巨大的代价.因此,真实评估需要被限制使用,不然优化时间
                会是难以接受的;
             •   另一种为模型评估,即用训练的代理模型进行评估,这种方式相比真实评估只需要非常少的消耗.
             本文所涉及到的代理辅助进化算法流程如图 1 所示,更多有关代理辅助进化算法的内容可以查阅文献
         [2,13].图 1 中,初始化是在决策空间内随机采样一定数量的解,并进行真实评估.这些解作为训练集,用于建立代
         理模型.候选解生成算子是在模型评估下迭代优化产生候选解.选择算子是在候选解中选择部分候选解进行真
         实评估,并加入到训练集以更新代理模型.此时,若未达到真实评估上限,则继续迭代优化;否则输出真实评估过
         的解,即种群中的非支配解.其中,与一般进化算法的选择过程不同的是:由于受到真实评估次数的限制,同时,模
         型评估与真实评估的函数值存在一定的误差,代理辅助进化算法需要选择更具代表性的解                                [17] .即:在现有种群中
         对候选解的收敛性与多样性进行权衡,而不是直接按照适应度值进行选择.另外,新候选解的产生并不是把当前
         种群直接作为父代解,同时,真实评估的解较少,因此在代理辅助进化算法中,种群并没有明显的迭代更新过程,
         而是用于保存所有真实评估过的解.















                                        Fig.1    Flow diagram of the SAEA
                                      图 1   代理辅助进化算法流程示意图
         1.3   相关工作

             目前有较多研究针对解决多目标昂贵问题的代理辅助进化算法,这里简要介绍较为流行的算法.
             •   Knowles 提出的 ParEGO [15] 拓展了 EGO [19] ,并首次把 EGO 用于解决多目标优化问题.ParEGO 把问题均
                匀划分成多个子问题,即把多目标优化问题转化为单目标优化问题,每次随机选取一个子问题,把预期
                改善(EI) [19] 作为选择策略来选择进行真实评估的解.此外,ParEGO 还限制了训练集的大小以减少建模
                时间;
             •   Ponweiser 等人提出的 SMS-EGO   [16] 使用下置信界(LCB)   [21] 来划分解的支配关系,把得到的解分成非ε
                支配解、ε支配解、支配解:对于非ε支配解,SMS-EGO 计算其 S-metric 作为适应度;对于ε支配解和支配
                解,SMS-EGO 分配一个惩罚值作为适应度,距离非支配解越远惩罚越大.基于此选择策略来选择进行
                真实评估的解.虽然 SMS-EGO 表现不错,但是由于需要大量计算 S-metric,所以它的运行时间特别长;
             •   Zhang 等人提出的 MOEA/D-EGO    [17] 先对进化算法得到解聚类,然后把 EI 作为选择策略,在每一簇中选
                择一个解进行真实评估.此外,它采用模糊聚类的方法建立代理模型,在利用所有真实评估的解的同时
                减少了建模时间.与 ParEGO 相比,MOEA/D-EGO 运行速度相对更快,因为它每次批量选择解,而不只是
                选择单个解;
             •   Chugh 等人提出的 K-RVEA   [18] 更多的贡献在模型管理策略上.它把本次得到的候选解与上一次得到的
                候选解分别分配到一组参考向量上:如果不活跃的参考向量在数量上的变化少于一定的数量,就采用
                不确定性作为选解依据;否则采用角度惩罚距离作为选解依据.此外,K-RVEA 在更新模型的时候会筛
                选解来限制训练集的大小,从而减少建模时间;
   147   148   149   150   151   152   153   154   155   156   157