当AI开药方时出现幻觉风险,医生该如何守住诊疗安全底线?
当AI开具处方时可能因“幻觉”风险生成错误药方,医生需通过严格的审核机制、结合临床经验与患者沟通,并坚守法律规定的责任主体地位来守住安全底线。
一、AI开方的核心风险:幻觉与责任盲区
幻觉导致误诊误治
AI可能虚构药物、剂量或禁忌信息(如编造药品名称、忽略个体过敏史),甚至将普通症状误判为重症。例如,有患者因AI推荐3倍剂量药物导致急性肾损伤,或儿童用药被AI错误标注为“安全”而实际缺乏临床数据支持。
责任归属不明确
现行法律要求处方必须由执业医师开具,AI作为工具无法承担法律责任。若发生医疗事故,医生、医院、技术开发商可能相互推责。
生命时报的视频
二、医生的四重安全防线
严格审核AI建议,尤其关注关键信息
剂量与禁忌症核查:对AI推荐的药物剂量、配伍禁忌、过敏史匹配等需人工复核。例如,某医生开具雾化药时,AI提示“幼儿慎用”,医生需结合患儿实际恢复情况综合判断。
溯源证据链:要求AI提供诊断依据(如引用指南、文献),避免无来源的结论。
强化医患沟通与个体化评估
亲自询问患者详细病史、用药史及经济状况,弥补AI仅依赖文字描述的不足。
向患者解释AI的局限性,避免盲目依赖其建议。例如,中医需坚持“望闻问切”,而非仅凭AI生成的药方开药。
临床经验不可替代
新手医生需系统训练:张文宏强调,年轻医生若过度依赖AI,将丧失独立判断能力,无法识别AI的错误(如混淆平山病与渐冻症)。
隐性知识补充AI短板:医生通过触诊、观察患者微表情等综合判断,而AI无法捕捉此类信息。
法律与技术协同保障
遵守监管红线:国家卫健委严禁AI自动生成处方,处方权必须由医生行使。湖南等地明确要求药店拒收AI处方,处方需经省级平台流转溯源。
技术辅助降风险:采用“证据锚定”技术(如百川智能M3+模型)降低幻觉率,或区块链技术实现处方全流程追踪。
三、争议中的共识:AI定位应为“超级助手”
支持辅助,反对替代:
王小川等科技界人士主张AI可提升诊疗效率(如快速整理病历、提示用药风险),但决策权应在医生手中。
医患协同新场景:
当患者对AI提示存疑时(如药物安全性),医生应主动解释用药逻辑,而非否定患者疑虑。
四、未来方向:构建“人机共审”机制
开发临床导向的AI工具:训练数据需涵盖罕见病、区域性疾病,减少数据偏差导致的误判。
明确责任框架:试点“AI双签字制度”(AI结论需两名医生复核)和医疗责任险,分摊风险。
⚠️ 关键提醒:AI的便捷性可能助长患者自我诊疗倾向,医生需反复强调——AI可用于健康咨询,但急症、复杂病及用药必须面诊。
(以上内容均由AI生成)