Page 13 - 《中国医疗器械杂志》2025年第6期
P. 13
Chinese Journal of Medical Instrumentation 2025年 第49卷 第6期
研 究 与 论 著
究的伦理法规、政策和原则既数量有限又体系不健 和测试,数据伦理风险主要体现在数据的采集、处
全。例如,人工智能医疗器械注册审批要点包括风 理与使用方面。第一,大数据分析技术的广泛应
险评估、软件更新、数据库安全、云计算服务等, 用,使得个人隐私的保护面临前所未有的挑战。医
但在伦理审查上,迄今为止无针对性的指导原则, 疗数据包含人的健康、基因等信息,通常为敏感的
主要参考《药物临床试验伦理审查工作指导原则》 个人信息,如果这些数据被非法获取或二次利用,
( [7-8] 。人工智能医疗 或因数据匿名化不足导致“再识别”风险(如通过
2010年11月发布)进行审查
器械在审查时,除了要考虑科学性和伦理性的问 基因数据推断患者身份)等,那么不仅关乎个人的
题,还需要评估人工智能与医疗器械融合带来的风 隐私和安全,如包含人类遗传资源信息的数据,其
险与受益。总的来说,目前人工智能伦理审查的工 不当使用甚至可能影响民族或国家安全。第二,在
作主要集中于医学领域,但仍沿用传统的生命科学 数据收集和处理过程中,如果存在数据偏见(如皮
领域伦理标准,缺少对人工智能领域提出的新的审 肤癌人工智能模型训练数据中,白种人患者样本量
查程序和标准。在将生物医学伦理原则应用到人工
超过98%,深色皮肤患者样本量不足2%,可能导
智能领域之前,医疗卫生机构伦理委员会有必要仔
致对深色皮肤患者诊断准确率大大降低,甚至延误
细重新审视人工智能中诸如数据隐私保护、算法公
治疗),则会加剧社会不平等和医疗不公,导致受
[9]
正性、公平性等核心概念 。
益评估过于乐观。第三,大量医疗数据可能被用于
此外,目前医疗卫生机构伦理委员会主要审查
未经授权的研究,导致数据滥用,使患者遭受不必
传统药物和医疗器械临床研究,委员由具备医学和
要的干扰或伤害(如频繁的电话推销、网络电信诈
临床经验的人员担任,医学人工智能这类跨学科的
骗等)。因此,医疗数据采集不合规、数据采集与
[10]
研究使得研究设计、实施和评估过程变得复杂 ,
患者授权不一致、匿名化数据可能被重新识别等问
从而增加了伦理委员会评估的难度。独立顾问虽然
题,具有复杂性、难以预测性和不确定性等特点。
可以提供一些专业的意见,然而,在有限的时间
如何在满足研究需求的同时,最大程度地平衡数据
内,要完全消除不同专业领域的知识壁垒和信息差
主体的个人权益与社会公众利益,给伦理委员会增
异,依然是一项艰巨的挑战。
[1]
加了评估的难度 。
2.2 医学人工智能算法和数据风险与受益难以
2.3 医学大数据应用场景下知情同意的获取
有效评估
困境
2.2.1 算法相关的伦理风险
在实际审查工作中发现,诸如医学图像处理、
人工智能伦理风险主要体现在技术本身的不可
健康医疗大数据的采集和挖掘的研究在医学人工智
控性及给社会带来的影响上,而算法是人工智能的
能研究中占比最高。医学人工智能研究需要获取海
核心,所以人工智能伦理风险大多是算法的设计、
量医疗数据,在使用医疗大数据开展研究时面临知
开发及应用过程带来的伦理问题。第一,算法依赖
研发人员的主观考虑,若一开始就存在某种偏见或 情同意的获取困境。
喜好,算法设计将会隐含社会偏见(如优先推荐高 数据主体(个人)对其数据的采集、存储、处
价治疗方案给高收入患者等),往往导致公平性缺 理和应用过程拥有知情同意权,即数据主体自主权,
失;第二,黑箱效应,如医师和患者无法理解人工 它赋予数据主体一定的信息自决权和参与权,保证
[11]
智能诊断决策是如何得出的,就会加剧医患之间的 了其有说“不”的权利,确保其意志得以体现 。
信任危机;第三,责任归属模糊(如人工智能发生 我国的民法典和个人信息保护法中也明确提到医疗
误诊时,是算法缺陷、数据问题还是医师操作失 健康和生物识别信息均属于敏感个人信息,处理这
误),很难对人工智能研发人员或部门开展问责。 些信息要遵循合法、正当和必要的原则。但是医疗
此外,人工智能的动态学习系统自主更新后偏离初 大数据研究由于数据种类多、容量大等特征,很难
始审查标准,追责将更加困难。因此,算法相关的 实现传统的研究者与参与者面对面讲解研究目的、
伦理风险从根本上动摇了传统风险—受益评估的静 意义等场景,签署书面知情同意也难以付诸实际。
态模式,可能导致伦理委员会难以预测其在实际应 这主要有以下3个方面的原因:首先是成本压力,
用中的潜在风险和受益。 医疗大数据研究时,至少要面对数十万条数据记录
2.2.2 数据相关的伦理风险 的挖掘处理,若要对每个患者都实施传统的知情同
医学人工智能研究需要海量医疗数据进行训练 意流程,则需要投入的经费和人力是科研项目本身
599

