Page 14 - 《中国医疗器械杂志》2025年第6期
P. 14
Chinese Journal of Medical Instrumentation 2025年 第49卷 第6期
研 究 与 论 著
难以负担的;其次是时间压力,即便资金充足,进 关于形式审查,由于医学人工智能研究的核心
[12]
行大样本量的知情同意工作,也会耗费大量时间 ; 在于算法,伦理办公室需重点关注2个方面:首
最后还有二次知情困难的问题,医疗大数据的潜在 先,研究团队中是否包含来自计算机或人工智能领
价值往往蕴含在其二次分析阶段(如数据重新整 域的专家;其次,是否已设立数据监查委员会,以
合、分享、再利用等维度),然而在数据被初次收 确保数据的收集、存储及使用等符合个人信息保护
集时,这些数据将被谁利用以及其应用目的往往属 和国家数据安全等相关要求。
于未知范畴 [13-14] ,所以再次征得数据提供者的知情 3.1.3 完善伦理审查方式
同意,无论经济成本,还是时间效度都难以实施。 医学人工智能研究中,若该研究的目的是通过
人工智能技术对疾病进行筛查、诊断和预后评估,
3 医学人工智能研究伦理审查的实施路径
为医疗决策和治疗建议提供支持,对人工智能技术
医学人工智能研究在遵循传统伦理审查基本要求 干预的效果进行评估,比如能够影响医疗人员诊断
的同时,还应当结合自身特点,特别是要考虑算法黑 判断并促使临床诊疗手段发生改变的人工智能辅助
箱效应、是否存在偏见和歧视以及数据是否存在滥 诊断系统、机器人辅助手术、个性化治疗方案等,
用、隐私泄露风险等问题,规范伦理审查程序,重点 在这类研究中,参与者须承担超出常规诊疗的风
关注研究风险受益比、知情同意程序等审查要点。 险,所以需要采用会议审查方式。对于使用公开数
3.1 基于算法透明和数据安全维度建立规范的 据集的非临床决策类医学人工智能研究,可以优先
伦理审查程序 选择简易审查程序。
3.1.1 明确伦理审查主体 此外,还有一些人工智能研究,研究者可能并
通常,从事生命科学、医学、人工智能等科技 不直接干预参与者的治疗或诊断过程,而是通过观
活动的单位均设有伦理委员会,如果未设立伦理委 察、记录和分析数据来评估人工智能技术的效果。
员会或者伦理委员会无法胜任此类研究审查,拟开 这类观察性研究虽不会直接导致患者生理上的风
展医学人工智能研究的单位可以以书面形式委托具 险,但它可能涉及大量个人健康信息的泄露,存在
[15]
备相应能力的伦理委员会进行伦理审查 。基于人 数据安全、隐私泄露、社会道德风险。即使这类研
工智能技术的特殊性,伦理委员会委员需要具备相 究并不直接依据人工智能的输出结果来干预临床决
应的专业能力和素养,除了基本的医学、生命科 策,但这并不意味着其在算法、数据安全及公平性
学、伦理学及法学等领域的专家外,建议增加生物 等方面的风险可以被忽视。事实上,这些风险在研
信息学、数学以及计算机科学等领域的专家,以更 究的后续阶段,乃至人工智能技术正式应用于临床
[10]
全面、深入地评估和指导涉及医学人工智能研究的 后,都将持续存在 ,所以即使是涉及医学人工智
伦理议题,跟踪研究全过程,确保研究全流程符合 能的观察性研究,建议仍采用会议审查方式。此
伦理要求。 外,对于《科技伦理审查办法(试行)》中规定的
3.1.2 优化伦理申请与受理流程 应复核的科技活动清单,还需按照要求向所在地方
关于提交材料的清单,建议结合2023年《涉及 或相关行业主管部门申请专家复核 。
[6]
人的生命科学和医学研究伦理审查办法》及2023年 综上,由于医学人工智能研究的风险远远超出
科技伦理审查办法(试行)》综合考虑
《 [15-16] ,在 了传统医学和生命科学研究,严格的伦理审查是必
初始审查阶段,除医学研究伦理审查需提交的常规 要的,但是伦理委员会与研究者可以共同探索灵活
材料外,还应当提交算法设计框架(如预期模型类 高效的审查模式,例如建立伦理审查材料模板及自
型、可解释性方法)、数据来源合法性证明、数据 查清单小程序,减少研究者的准备时间;采用人工
隐私保护措施、数据偏见防控计划及应急预案等; 智能辅助伦理审查工具(如自动检测数据处理合规
在跟踪审查阶段,应当提交算法模型训练记录和验 性),提升审查效率。
证流程文件等材料,确保全流程合规。此外,涉及 3.2 重点关注算法透明和数据安全维度下研究
脑机接口的临床研究,还需要提供植入物的大动物 风险与受益的评估
安全性及有效性报告、生物相容性及型式检测报告 研究中的风险受益比评估的是可能遭受的风险
等 ,研究人员需提供脑机接口技术技能培训证书 程度与预期的获益相比是否合理,有无风险最小化
[17]
[8]
和科研伦理培训证书。 的措施来避免不必要的风险 。医疗人工智能的运
600

