Page 50 - 《上海体育大学学报》2025年第8期
P. 50

刘福元. 电子竞技场域中的人工智能:应用于训练、比赛和观赛的功能展望

           的角色   AI 可以通过“立场切换”而“以对手的身份去                        围过于广阔,而且会使不同搜索结果之间的优劣比较

           阻挡玩家”;当此处的“玩家”变更为电竞选手时,即可                           更加困难,同时推高计算量、计算时间和硬件成本。比
           达成辅助训练的功效。角色              AI 处于“对手”身份时,             如,竞技游戏《星际争霸》(Blizzard Entertainment)需要
           既可以不经机器学习或者学习大量一般玩家的各项数                             “在不完备信息的游戏环境中控制多种类型并且互不
           据而成为普通的训练对手,辅助己方选手进行常规训                             相似的单位的多目标任务”,“一场典型的游戏至少有
           练、提升专项技能,也可以集中学习特定选手的数据而                            101 685 种可能的状态”     [5]13-14 。在晚近算法和算力快速
           模拟成为对方选手,辅助己方选手进行临赛训练、备战                            提升的背景下,角色         AI 在“玩游戏”及其所延伸出的
           特定比赛场次。就此而言,角色              AI“玩游戏”的相关算             “阻挡玩家”两项事宜中已可胜任相当一部分游戏。
           法为  2 种辅助训练模式提供了技术基础。                               比如:“DeepMind 的深度      Q  学习程序在超过一半的游

               尽管   AIGC  的应用愈加广泛,人工智能与神经网                     戏中表现得比人类测试员更好”               [9]165 ;2018 年  OpenAI
           络、机器学习已呈高度绑定之态势,其在角色                     AI 范畴      团队开发的人工智能          OpenAI Five 在《刀塔    2》游戏中
           内也取得了相应的进展,但极大极小算法(Max-Min                          以  2∶0 的比分击败了      TI8 冠军  OG  战队;2019 年  Deep-
           Algorithm)、有限状态机(Finite State Machine)、基于           Mind 公司开发的人工智能          AlphaStar 在《星际争霸Ⅱ》
           效用的    AI(Utility-Based AI)等在部分游戏中能够取               游戏中以    4∶1 的比分击败了人类玩家           [6]20,63 ;等等。
           得更为良好的应用效果,换言之,通过状态机或树搜                                 换言之,既然角色        AI 可以在竞技游戏中挑战或战
           索得出的行为结果可能比通过监督学习(Supervised                        胜人类玩家,那么也能够辅助电竞选手进行训练。其
           Learning)乃至强化学习(Reinforcement Learning)玩家           较为突出的优势之一在于,角色              AI 可以为选手提供近
           数据得出的行为结果更具实效性。比如,棋类游戏具                             乎无限的训练强度。原因在于,选手操控游戏中的虚

           有清晰的规则、较少的可能动作、游戏的所有部分始                             拟角色需要借助外设来输入指令,而这些指令能够即
           终可见,由此产生的直截了当的奖励机制使其更为适                             刻被游戏程序所识别,进而转化为正确或合理的应对
           合强化学习算法,但当上述条件不具备时,强化学习则                            动作传达给角色        AI,由于这一过程极为短暂并远超人
           可能弱于其他算法。即如论者              [13]8  所言,“没有哪一种         类选手的反应速度,其所呈现的效果即是角色                     AI 可以
           方法能够全方位完胜任何其他方法”,“针对一个特定                            “预判”或“事先知晓”选手的指令。相对地,由于无须
           游戏的最佳算法对另一个游戏来说可能并非最好”,因                            通过外设手动输入且不存在“操作失误”,加之处理器
           此,使用超启发式(Hyper-Heuristics)或者算法抉择                    高超的运算速度,角色          AI 的动作是人类玩家难以及时
           (Algorithm Selection)来匹配不同的算法和游戏,或将                 应对的。同时,角色         AI 的反应速度及动作合理性又可

           各种  AI 算法通过多种方式交织乃至结合在一起,“以                         通过参数进行调整,从而使其训练强度能够由低到高
           产生新的复杂算法并增强它们组合部分的能力”,即是                            进行广域调节。然而,作为训练对手的角色                    AI 还存在
           更为可行的路径。例如,可以借助遗传算法来进化行                             以下两方面问题。
           为树或有限状态机,借助人工神经网络评估器来增强                                 (1)角色   AI 单纯地通过预判、准确性和反应速度
           蒙特卡罗树搜索,还可以在每个搜索算法中都添加一                             等“机器属性”辅助训练只能提升选手的专项技能,或
           个局部搜索组件,从而形成组合                 AI 方法的混合算            者说通过大量的重复性练习来提高选手的基本素质并
           法 [5]66,97,107 。对于电竞应用而言,在“作为训练对手”子                 保持状态,但在更强调战术策略和团队配合的竞技游
           功能上,若干算法可以竞争-试错或混合使用;在“模                            戏中难以覆盖诸如《英雄联盟》中视野、游走、伏击、合
           拟对方选手”子功能上,由于需要对方选手大量且全面                            击、团战、资源争夺等要素。多数竞技项目考验的不
           的数据,神经网络和机器学习则是必不可少的。                               仅是选手个人的操作水平,更是选手之间的战术布局

               随着游戏技术的不断演化,目前多数大型游戏特                           和协作能力,“参赛队伍只有在短时间内通过判断场上
           别是竞技游戏都有着较高的复杂度,这为高水平角色                             形势,想出最适合己方的应对战术,并通过自己的技术
           AI 的设计和制作增加了难度。在技术原理上,竞技游                           操作对战术进行有效执行才能战胜对手”                   [14] 。现阶段
           戏中角色    AI 的有限状态空间,即可选择的行为状态和                       多数角色    AI 的战术策略较为固定,选手通过多次对战
           行动策略往往极为庞大,这不仅会使行为树的搜索范                             即可摸清并加以应对。比如,角色               AI 在生命值过低时

           46
   45   46   47   48   49   50   51   52   53   54   55