Page 12 - 《中国医疗器械杂志》2025年第6期
P. 12
Chinese Journal of Medical Instrumentation 2025年 第49卷 第6期
研 究 与 论 著
0 引言 理》,确定了保护自主性、促进人类福祉、确保透
明化、可解释性、可理解性及建立问责制等6项核
医学人工智能是医学研究与人工智能的交叉领 心原则,以促进人工智能响应性和可持续性。
域,广泛应用于辅助医学诊断、医学图像处理、新 近年来,我国越来越重视人工智能的伦理治
药研发、基因测序、健康管理及医学科研等方面, 理,出台了一系列政策法规加强监管。《新一代人
对提高疾病诊断准确性与效率、提供个性化治疗方 工智能发展规划的通知》(2017年7月国务院印
案、预测疾病风险、缩短新药研发周期、优化医疗 发)要求建立保障人工智能健康发展的法律法规和
[2]
[1]
资源分配等具有重要意义 。未来人工智能与医学 伦理道德框架 。《中华人民共和国个人信息保护
的进一步结合将是医学领域重要的发展方向,也是 法》(2021年8月全国人民代表大会常务委员会发布)
研究热点,越来越多的技术团队已参与到人工智能 明确个人信息和敏感个人信息(如医疗健康、生物
与医学的交叉研究中,但由于医学人工智能的研究 识别等)的处理规则,并指出针对人工智能等新技
[3]
大多涉及患者的敏感个人信息,一旦被滥用,易引 术,应当制定专门的个人信息保护规则、标准 。
发隐私安全、算法透明、社会公平等方面的问题, 《新一代人工智能伦理规范》(2021年9月国家新
因此迫切需要从伦理和法律方面进行考量,建立健 一代人工智能治理专业委员会发布)总结提出了保
全监管机制。本文梳理了国内外医学人工智能研究 护隐私安全、提升伦理素养、确保可控可信、促进
伦理审查的相关依据,分析了目前伦理审查实践中 公平公正、强化责任担当、增进人类福祉等基本伦
存在的问题和难点,结合工作实际,探讨了医学人 理规范,并从伦理方面对人工智能的研发、使用、
[4]
工智能研究的伦理审查程序及要点,为探索进一步 供应和管理等提出18项具体要求 。《关于加强科
技伦理治理的意见》(2022年3月中共中央办公厅、
规范医学人工智能研究的伦理审查及合法合理获取
国务院办公厅印发)明确指出人工智能、生命科学
知情同意等提供借鉴。
等领域的科技活动需遵循伦理先行、依法依规、敏
1 医学人工智能研究伦理审查的相关依据 捷治理的要求。《人工智能伦理治理标准化指南》
2023年3月全国信标委人工智能分委会发布)梳
(
医学人工智能研究是利用机器学习、深度学 理细化十类可实施性较强的人工智能伦理准则,包
习、数据挖掘、计算机视觉及自然语言处理等技术, 括以人为本、可持续性、合作、隐私、公平、共
探究疾病的病因、诊断、治疗、康复、预防及健康 享、外部安全、内部安全、透明、可问责 。《科技
[5]
维护的活动。它融合了计算机科学、数据科学、生 伦理审查办法(试行)》(2023年10月科技部等十
物医学工程等多个学科的知识,通过处理和分析海 部委出台)要求扩大伦理审查范围,涉及人工智能、
量医学数据或模拟人类的智能行为等,为医师提供 算法和模型设计、个人数据处理等,需从科技伦理
辅助诊断、治疗方案推荐、患者监护等智能化服 角度开展风险评估,识别和防范潜在的伦理风险 。
[6]
[1]
务,从而优化医疗资源配置,改善患者就医体验 。
2 医学人工智能研究伦理审查实践中面临
目前,医学人工智能研究的伦理风险防控机制
的挑战与困境
仍在建设探索中,现阶段主要是参考人工智能的伦
理制度规范加以监管。在这方面,欧盟一直走在实 医学人工智能作为新型研究,诸如数据隐私、
践的最前沿,《通用数据保护条例》(2018年5月 算法偏见、责任归属及知情同意获取困境等突出问
出台)高度重视数据与算法透明,要求处理信息数 题应当引起重视。针对医学人工智能研究的特殊
据必须遵循合法、公平、透明的原则,且用通俗易 性,建立起一套严谨规范的伦理审查制度,确保研
懂的语言解释数据收集方式,体现了数据主体自主 究参与者的生命安全、隐私及个人权利不受侵犯至
的原则;2024年7月,欧盟官方公报发布的《人工 关重要。但目前,伦理审查在具体实践中仍然存在
智能法》具有里程碑意义,它根据人工智能系统对 一些亟待解决的问题。
个人安全、健康和权利的潜在影响将其分为4个层 2.1 缺乏基于人工智能算法透明和数据安全维
级(不可接受风险、高风险、具有特定透明度风险 度建立的伦理审查程序和标准
和风险极低),强调对于社会风险越高的人工智能 目前,国家尚未出台医学人工智能研究相关的
技术,相应的监管规则就越严苛;2021年6月,世 伦理审查程序和标准,一般是参照医学研究领域的
卫组织出台《卫生健康领域人工智能伦理与治 相关要求进行 ,用于规范和管理医学人工智能研
[7]
598

