Page 13 - 《中国医疗器械杂志》2025年第6期
P. 13

Chinese Journal of Medical Instrumentation                                         2025年 第49卷 第6期

                                                     研   究   与   论   著



              究的伦理法规、政策和原则既数量有限又体系不健                            和测试,数据伦理风险主要体现在数据的采集、处
              全。例如,人工智能医疗器械注册审批要点包括风                            理与使用方面。第一,大数据分析技术的广泛应
              险评估、软件更新、数据库安全、云计算服务等,                            用,使得个人隐私的保护面临前所未有的挑战。医
              但在伦理审查上,迄今为止无针对性的指导原则,                            疗数据包含人的健康、基因等信息,通常为敏感的
              主要参考《药物临床试验伦理审查工作指导原则》                            个人信息,如果这些数据被非法获取或二次利用,
             (                            [7-8] 。人工智能医疗         或因数据匿名化不足导致“再识别”风险(如通过
               2010年11月发布)进行审查
              器械在审查时,除了要考虑科学性和伦理性的问                             基因数据推断患者身份)等,那么不仅关乎个人的
              题,还需要评估人工智能与医疗器械融合带来的风                            隐私和安全,如包含人类遗传资源信息的数据,其
              险与受益。总的来说,目前人工智能伦理审查的工                            不当使用甚至可能影响民族或国家安全。第二,在
              作主要集中于医学领域,但仍沿用传统的生命科学                            数据收集和处理过程中,如果存在数据偏见(如皮
              领域伦理标准,缺少对人工智能领域提出的新的审                            肤癌人工智能模型训练数据中,白种人患者样本量
              查程序和标准。在将生物医学伦理原则应用到人工
                                                                超过98%,深色皮肤患者样本量不足2%,可能导
              智能领域之前,医疗卫生机构伦理委员会有必要仔
                                                                致对深色皮肤患者诊断准确率大大降低,甚至延误
              细重新审视人工智能中诸如数据隐私保护、算法公
                                                                治疗),则会加剧社会不平等和医疗不公,导致受
                                     [9]
              正性、公平性等核心概念 。
                                                                益评估过于乐观。第三,大量医疗数据可能被用于
                  此外,目前医疗卫生机构伦理委员会主要审查
                                                                未经授权的研究,导致数据滥用,使患者遭受不必
              传统药物和医疗器械临床研究,委员由具备医学和
                                                                要的干扰或伤害(如频繁的电话推销、网络电信诈
              临床经验的人员担任,医学人工智能这类跨学科的
                                                                骗等)。因此,医疗数据采集不合规、数据采集与
                                                         [10]
              研究使得研究设计、实施和评估过程变得复杂 ,
                                                                患者授权不一致、匿名化数据可能被重新识别等问
              从而增加了伦理委员会评估的难度。独立顾问虽然
                                                                题,具有复杂性、难以预测性和不确定性等特点。
              可以提供一些专业的意见,然而,在有限的时间
                                                                如何在满足研究需求的同时,最大程度地平衡数据
              内,要完全消除不同专业领域的知识壁垒和信息差
                                                                主体的个人权益与社会公众利益,给伦理委员会增
              异,依然是一项艰巨的挑战。
                                                                               [1]
                                                                加了评估的难度 。
               2.2    医学人工智能算法和数据风险与受益难以
                                                                 2.3    医学大数据应用场景下知情同意的获取
                   有效评估
                                                                      困境
               2.2.1    算法相关的伦理风险
                                                                    在实际审查工作中发现,诸如医学图像处理、
                  人工智能伦理风险主要体现在技术本身的不可
                                                                健康医疗大数据的采集和挖掘的研究在医学人工智
              控性及给社会带来的影响上,而算法是人工智能的
                                                                能研究中占比最高。医学人工智能研究需要获取海
              核心,所以人工智能伦理风险大多是算法的设计、
                                                                量医疗数据,在使用医疗大数据开展研究时面临知
              开发及应用过程带来的伦理问题。第一,算法依赖
              研发人员的主观考虑,若一开始就存在某种偏见或                            情同意的获取困境。
              喜好,算法设计将会隐含社会偏见(如优先推荐高                                数据主体(个人)对其数据的采集、存储、处
              价治疗方案给高收入患者等),往往导致公平性缺                            理和应用过程拥有知情同意权,即数据主体自主权,
              失;第二,黑箱效应,如医师和患者无法理解人工                            它赋予数据主体一定的信息自决权和参与权,保证
                                                                                                           [11]
              智能诊断决策是如何得出的,就会加剧医患之间的                            了其有说“不”的权利,确保其意志得以体现 。
              信任危机;第三,责任归属模糊(如人工智能发生                            我国的民法典和个人信息保护法中也明确提到医疗
              误诊时,是算法缺陷、数据问题还是医师操作失                             健康和生物识别信息均属于敏感个人信息,处理这
              误),很难对人工智能研发人员或部门开展问责。                            些信息要遵循合法、正当和必要的原则。但是医疗
              此外,人工智能的动态学习系统自主更新后偏离初                            大数据研究由于数据种类多、容量大等特征,很难
              始审查标准,追责将更加困难。因此,算法相关的                            实现传统的研究者与参与者面对面讲解研究目的、
              伦理风险从根本上动摇了传统风险—受益评估的静                            意义等场景,签署书面知情同意也难以付诸实际。
              态模式,可能导致伦理委员会难以预测其在实际应                            这主要有以下3个方面的原因:首先是成本压力,
              用中的潜在风险和受益。                                       医疗大数据研究时,至少要面对数十万条数据记录
               2.2.2    数据相关的伦理风险                               的挖掘处理,若要对每个患者都实施传统的知情同
                  医学人工智能研究需要海量医疗数据进行训练                          意流程,则需要投入的经费和人力是科研项目本身


                                                             599
   8   9   10   11   12   13   14   15   16   17   18