作者:微信文章
前景提要:本期系列文章旨在从临床、患者及法规的角度,理性审视 AI 技术是否真能推动医疗的变革,还是仅仅依赖于数据的堆砌与技术炒作。我们将深入探讨当前医疗 AI 在伦理、法律和隐私方面面临的合规挑战,尤其是在数据采集、处理、存储以及监管审批的过程中可能存在的潜在风险。上一期文章已经围绕了前两部分的核心问题展开深刻分析:第一,数据采集的隐私安全隐患,非合规数据源、患者知情权缺失、隐私泄露的风险来源;第二,数据清洗与整合的隐性操控,算法偏见、数据篡改、不可复现性的潜在法律风险;紧接着这篇文章将更加详细地阐述以下两个问题:第三,数据分析与临床试验的灰色地带,模型训练的伦理风险,AI 预测的科学性和临床可行性存疑;第四,医疗数据的黑客攻击,癌症治疗数据共享的利弊,人类隐私换取 AI 发展的伦理争议。下周新更的文章将继续深入展开阐述 FDA 和 EMA 等监管部门对于 “AI 幻觉” 及 AI 可信度的严格审查建议和 AI 在新药研发各流程的态度。
通过系列文章的分析,我们将不仅帮助读者理清商业化 AI 医疗变革背后的真实面貌,同时也为政策制定者提供前瞻性的合规框架,确保医疗行业能够在科技迅速发展的同时,仍能保障患者的权益与信任。
1.3 数据分析阶段的问题
AI 生成的分析模型常被视为 “黑箱” (Black Box),即输入数据与输出结果之间的决策过程不可解释。如何有效解决黑箱问题在医疗领域尤为重要,比如医生会经常面临如何向病人解释 AI 为何会推荐某种药物,监管机构也由于无法评判该临床建议的公平性与准确性,进而限制了 AI 在临床医疗和新药开发中的应用。
增加 AI 的可解释性,虽然有助于拓展应用范围,并能协助技术团队识别和修复模型中的错误,但与此同时也带来其他挑战。首先,AI模型的复杂度与可解释性通常是负相关的。比如线性模型的深度神经网络可以简单通过权重即可了解特征的重要性,相比多个决策树组合的模型具有更强的可解释性,但后者在解决复杂问题的能力和模型结果的准确度更具有优势,为了打造复杂模型的可解释性通常需要付出更大的时间和经济成本。其次,AI 公司在提供可解释性的同时,需要牺牲一部分商业机密,这在商业竞争中出于技术核心的保护和专利所有权归属问题的角度可能难以接受。此外,AI 的可解释性涉及多个专业领域的知识,如数据科学、药物研发和临床医学,且需要高水平的跨学科人才,才能确保 AI 模型的专业性、正确性与透明性。
因此我们回归到可解释性问题的本身:AI 模型是否有必要解释和如何解决。欧洲工商管理学院(INSEAD)决策科学与技术管理学院教授 Theodoros Evenious 埃夫根尼奥和助理教授 Boris Babic 巴比奇关于第一个问题的回复是需要充分考虑解释的对象与目的,埃夫根尼奥表示,是否需要解释AI决策及其具体内容,应根据不同利益相关方的需求和认知水平来决定,因此 “在某种程度上把可解释性作为一个笼统的概念来讲是非常危险的”。这个问题涉及到多方的利益相关者,包括临床医生、患者及其亲属、医学与计算机科学的研究人员甚至保险经纪,当中的利益相关者也因为对于 AI 的认知水平不同,与对于临床和药物知识的专业方向不同,导致对于解释 AI 医疗系统的重要性以及解释的内容完全不一样。
比如如果解释对象是系统开发工程师以及临床医生等与模型深度互动的人群,解释内容需要尽可能从其专业的角度上解释 AI 和 ML 的作用机理。一方面为了能够提高工程师对于该 AI 模型能解决的问题和临床医生如何通过 AI 解决有清晰的认知,另外一方面双方充分的交流还能帮忙提出新的想法改进 AI 模型的逻辑和结果输出。
针对第二个问题,埃夫根尼奥和巴比奇都认为如何解决 AI 的可解释性归根结底是如何解决信任的问题。这个问题从两个方面考虑,第一是如何令临床和医药行业的专业人士理解和信任 AI 系统?如果监管机构对于 AI 系统的开发和审批过程非常严格,以及对 AI 功能的评判标准足够标准化,所有的新兴 AI 医疗技术和平台经过多年审查和试验才能上市,以及上市后得到长期有效的监管和评判,后续有足够多的专家使用并编写指南,那么对于 AI 的怀疑将会被有效的监管机制和后续的风险处理逐渐瓦解;另一方面是如何提高患者对于 AI 医疗系统的信任和认知是基于患者对于医生的信任,是可以有多种方式(比如增加医患互动程度,增加对患者心理层面的关怀等)进行解决而不需要通过寻求 AI 决策过程的因果关系来取得患者对于新技术的信任。
因此总结起来,从监管者的角度来看,可解释性的关键在于建立明确的监管框架,明确 AI 模型的可解释性在专业层面上必须回答的框架,并提供清晰的决策依据,才能建立临床医生以及监管者对于 AI 医疗系统的信任;与此同时,对于涉及患者筛选和个性化治疗等与患者直接相关的 AI 应用应采用更加严格的审查标准,在技术层面上提供更公平透明的解释以确保算法模型和结果的公平性,甚至采取公开的技术标准流程,比如明确责任担责框架,确保出现问题的时候可以快速追责补充漏洞,来提高 AI 医疗系统的责罚成本。
1.4 黑客攻击和数据安全的问题
随着AI医疗模型的普及,网络安全成为日益严峻的挑战。AI 医疗系统,尤其是涉及高净值患者的个人信息和财务数据的大型数据库,可能成为有组织黑客攻击的目标。如果系统在安全性方面缺乏充分的认知和保护措施,数据传输过程中未加密,或系统漏洞未得到及时修复,黑客不仅可通过操控数据或设备访问权限窃取信息在暗网售卖,或者要挟大型 AI 医疗机构支付高昂赎金以维持业务不得终端,甚至还能改变医疗决策系统或输入错误信息,从而引发严重的医疗事故。
其他造成严重经济损失的攻击媒介包括商业电子邮件诈骗(BEC,Business Email Compromise),网络钓鱼攻击,社交工程攻击,凭据被盗或泄露攻击。生成式 AI 的发展在一定程度上助长了这些攻击手法的精准性。例如,过去因语言障碍而难以实施精准欺诈的攻击者,如今可利用 AI 工具生成符合目标语言规范的诈骗邮件,从而显著提升攻击成功率。