当然,目前也有很多 AI 从业者正在努力深耕医学领域,正如自动驾驶技术突破到 L5 阶段就能彻底解放司机,也许将来有一天医疗专用 AI 也能够突破某个门槛,为大众提供更多选择。但当下谈“AI 代替医生”显然为时过早。
另外,从法律的角度来看,患者、医生以及 GAI 工具三者间法律责任非常模糊。在患者受到伤害的情况下确定法律责任是极其复杂的问题,需要明确的法律法规保障来适当分配责任和保护用户。但这一问题的解决,恐怕只能通过一个影响巨大的新闻事件来推动,人类不大容易在巨大的悲剧出现之前就想到预防或解决方案,这一类代价恐怕是绕不过去的,只能走着看。
不过,从普通人的角度,如果将 GAI 作为医疗咨询的工具,倒是能在一定程度上降低医患之间的沟通成本。2025 年的一份研究,调查了 ChatGPT 提供的医疗响应的安全性、准确性和全面性,并与谷歌进行了比较,以了解烧伤及其管理的常见问题。
说到底 GAI 工具的使用者是人,它能发挥出哪些作用,主要还是取决于工具使用者本人的学习能力、知识结构和专业水准。
对于原本就有知识结构方面重大缺陷且又不善于学习的人来说,GAI 工具不啻于魔法,他们很容易不加怀疑地笃信 GAI 工具给出的信息,从而加深自己既有的偏见。
另外,医患关系的核心部分仍然是人与人的互动,医疗领域的任何技术进步其目的都是为了给病人带去希望和福祉。在医学的历史上,医生们在追求技术效率和决策精准度的同时,忽略与病人的沟通技巧和同理心的培养、忽略患者心理需求的故事曾屡屡上演。如果医生将来对 GAI 的过度依赖,导致了对患者的人文关怀的忽视(这是极有可能再次发生的事),那就与我们追求医疗技术进步的初衷背道而驰了。
而今,站在 AI 技术蓬勃发展的当口,无论是科研、医疗机构,还是一线的临床医生和病人,如何保障人文精神在 AI 技术中充分彰显,实现人类价值与医疗技术的良性互动、协同发展,都将是我们必须要认真思考的问题。