随着多家医院接入DeepSeek大模型,AI医疗的安全性问题,再度引发社会关注。全国人大代表甘华田建议,应尽快制定和完善AI医疗相关法律法规,明确AI医疗的法律地位、使用边界、安全标准和伦理规范。
不同于简单的导医服务,如今的AI明显触角更深了。在医学影像识别领域,由于影像数据相对标准化,AI的准确度得到普遍认可;在健康管理领域,AI深入分析体检报告,预测疾病风险;在手术智能辅助规划领域,AI明确手术关键部位,推荐最佳手术方案,评估手术风险……去年11月,国家卫健委等三部门就发布了《卫生健康行业人工智能应用场景参考指引》,列出了84个典型应用场景。
但哪怕再不熟悉医学的人,也能意识到“AI医生”并非万能。并不是所有和疾病相关的因素,都能被量化、被机器所学习,专业判断和临床经验,传统的“望闻问切”,依然不可被替代。更重要的问题在于,医疗是一个容错率很低、厌恶不确定性的行业,但AI医疗还是新生事物,法律规制相对分散和滞后。正因如此,全国人大代表刘忠军也认为,在AI嵌入医疗实践中要更加扎实慎重,需在技术更成熟、验证更充分后引入医疗流程。
一些现实中的困境,也需要法律层面及时回应。比如,AI毕竟是机器,无法承担主体责任,那么一旦事故发生,谁来负责?是医疗设备设计者、算法提供者,还是医疗机构、医务人员?此前,一些官方文件作出了原则性的规定,严守安全红线,比如,湖南省医保局近日发布通知,严禁使用人工智能等自动生成处方。但AI即便只是作为辅助,传统的责任形式也难以简单套用,有待更加清晰的规制和指引。甚至有学者认为,随着生成式人工智能的自主性不断增强,将来能否成为医疗事故法律责任的主体或许是可以讨论的。