医疗 AI
医学影像分析
医学影像 AI 是目前医疗 AI 中商业化最成熟的方向,部分产品已获得 FDA 和 NMPA 审批并进入临床使用。
X 光诊断辅助
- 胸片分析:检测肺结节(早期肺癌筛查)、肺炎渗出、气胸、心脏增大
- 准确率对比:多项研究显示,顶级 AI 模型在肺结节检测上的灵敏度达到 94-97%,与放射科医生相当,但误报率控制上仍有差距
- 临床价值:作为"第二读片者",AI 能捕捉医生容易遗漏的微小病灶
CT/MRI 诊断
- 脑卒中检测:CT 平扫快速识别出血性/缺血性脑卒中,秒级出报告,争分夺秒
- 肿瘤分割:自动勾画肿瘤边界,辅助放疗计划制定(节省放射物理师数小时工作量)
- 骨科 AI:骨龄测定、骨折检测、骨密度评估
病理图像分析
- 数字病理(WSI):超高分辨率的全切片图像,AI 扫描识别癌变区域
- 细胞分类:白细胞分类计数自动化(血常规)
- 挑战:病理 AI 需要大量专家标注,标注成本极高
LLM 在医疗中的应用
病历结构化
医院积累了大量非结构化病历文本,LLM 可以将其转化为标准化的结构化数据:
- 从主诉、病史中提取症状、发病时间、持续时间等字段
- ICD 诊断编码自动推荐
- SOAP 格式病历自动归类整理
辅助诊断
- 基于症状描述给出鉴别诊断列表(排除过程辅助)
- 罕见病诊断辅助:帮助全科医生发现遗传病、罕见综合征的可能性
- 重要限制:AI 输出仅供参考,最终诊断权属于执业医师
医患对话
- 智能预问诊:患者就诊前的症状采集和初步分诊
- 出院随访:AI 外呼关注患者康复情况,异常情况转人工
- 医患沟通辅助:将专业医学术语转化为患者能理解的语言
用药建议
- 药物相互作用检查(患者服用多种药物时的潜在风险)
- 基于患者肝肾功能的剂量调整建议
- 高风险警示:用药建议 AI 出错可能危及生命,必须有严格的审核机制
药物发现
AI 在药物发现中的应用正在缩短新药研发的时间线(传统平均 10-15 年)。
分子性质预测
- 给定分子结构,预测其生物活性、毒性、溶解度、渗透性(ADMET 属性)
- **图神经网络(GNN)**是处理分子图结构的主流架构
- 显著减少湿实验室筛选的化合物范围,从数百万化合物中筛选出候选分子
靶点识别
- 从文献和专利数据中挖掘潜在药物靶点
- 多组学数据(基因组、蛋白质组、代谢组)整合分析
- 基因型-表型关联分析(GWAS 数据的 AI 解读)
AlphaFold 蛋白结构预测
DeepMind 的 AlphaFold 2(2021)是 AI in Science 的里程碑事件:
- 首次以原子级精度预测几乎所有已知蛋白质的三维结构
- 将原本需要数年实验的蛋白结构解析缩短至数分钟
- AlphaFold Protein Structure Database 已开放 2 亿+ 蛋白结构
- 后续:AlphaFold 3(2024)进一步扩展到蛋白质-DNA-小分子复合物预测
临床决策支持系统(CDSS)
CDSS(Clinical Decision Support System)是在临床工作流中嵌入 AI 建议的系统:
- 诊断建议:根据患者检查数据,提示可能遗漏的诊断
- 用药提醒:检测药物过敏史、药物相互作用,实时告警
- 早期预警:ICU 患者败血症、呼吸衰竭的早期预测(提前数小时告警)
- 检查推荐:基于诊断路径,推荐下一步应做的检查
医疗数据隐私
HIPAA(美国)
- 医疗信息(PHI)需要严格保护,不得在未获授权的情况下使用
- 用于 AI 训练的医疗数据需要去标识化(De-identification)
- 违规处罚:单次事件最高 1.9 亿美元(美国医疗史上最高罚款)
GDPR(欧盟)
- 健康数据属于特殊敏感数据(Special Category Data),处理需要额外保护
- 数据主体有权要求删除其医疗数据
中国医疗数据法规
- 《网络安全法》《数据安全法》《个人信息保护法》构成基础框架
- 医疗数据出境需要安全评估
- 大型医院数据被视为重要数据资产,受到严格保护
FDA / NMPA 监管
FDA 对 AI 医疗器械的审批路径
- 510(k) 预市通告:与已上市器械实质等同,适合低风险 AI 辅助工具
- De Novo:新型低风险器械,为同类 AI 产品建立先例
- PMA(上市前批准):高风险 AI 器械,需要临床试验数据
截至 2024 年,FDA 已批准超过 700 个 AI/ML 医疗器械,其中影像 AI 占比最高。
NMPA(国家药品监督管理局)
- 中国将 AI 医疗器械纳入第二类/第三类医疗器械管理
- 高风险 AI(如:AI 辅助诊断作为独立诊断依据)需要三类器械注册证
- 审批周期通常在 2-4 年
挑战与展望
幻觉风险
LLM 在医疗场景中的幻觉(Hallucination)问题比普通场景危害更大:
- 虚构的药物相互作用警告(误告警导致医生忽视真实警告)
- 捏造的临床研究结论(引用不存在的文献)
缓解策略:RAG(基于权威医学知识库检索增强)+ 引用溯源展示
医疗责任归属
- 若 AI 辅助诊断出错导致患者受损,责任由谁承担?
- 目前主流观点:AI 是辅助工具,医师承担最终责任
- 但随着 AI 自主性增强,责任归属将日益复杂
数据孤岛
- 各医疗机构的数据格式、编码标准不统一(ICD-9 vs ICD-10,不同 HIS 系统)
- 数据不愿开放共享(商业竞争 + 隐私顾虑)
- **联邦学习(Federated Learning)**是解决数据孤岛同时保护隐私的技术方向