AI 在医疗辅助场景的工程挑战——合规是第一道墙
AI 在医疗辅助场景的工程挑战——合规是第一道墙
适读人群:想进入医疗 AI 领域的工程师,或者对医疗 AI 现状感到困惑的人 | 阅读时长:约15分钟 | 核心价值:技术上能做的事和合规上允许做的事,之间有多大差距
我没有做过医疗 AI 项目,但我研究过这个领域。研究的起因是:两年前有个朋友找我聊,他是做 SaaS 创业的,想进医疗 AI 这个赛道,问我觉得机会怎么样。
我花了几周做了一个系统调研:看监管文件、和几个在医院做信息化的工程师聊、研究已经拿证的医疗 AI 产品。最后给他的结论是:技术上能做的很多,合规上允许做的很少,而且门槛不会降低。
他后来没有进医疗 AI 赛道,选了一个别的方向。我把那次调研整理成了这篇文章,工程师视角的观察,不是医疗专业人士的判断。
先说最重要的一条法规
在中国,AI 软件如果用于医疗诊断、治疗辅助、疾病筛查——凡是会影响临床决策的——就属于第二类或第三类医疗器械,必须取得 NMPA(国家药品监督管理局)的医疗器械注册证才能商用。
这个注册流程:
- 需要提交临床试验数据(几千到几万个病例不等)
- 需要通过软件安全性评估(按 IEC 62304 标准)
- 整个流程通常需要 2-4 年
- 费用(临床试验+注册费用)通常在几百万到千万级
不是说你做出来了就能用,而是做出来了、拿到注册证了,才能在医疗机构用于临床。
这一条就把 99% 的小团队挡在门外了。
技术上能做什么——分级来看
我把医疗 AI 的可能应用按"技术挑战"和"合规风险"两个维度分级:
合规风险
高 | 影像诊断 AI 药物设计 AI
| 病理诊断 AI
|
| 电子病历分析 临床决策支持
中 |
|
| 科研辅助工具
低 | 医学文献检索 患者教育内容
+------------------------------------------
低 中 高
技术挑战左下角是最容易做的:技术挑战不高、合规风险低。右上角是最难做的,也是最多人想冲进去的(影像诊断、临床决策)。
合规风险低的切入点
作为工程师,如果真的想在医疗领域做事,这些方向是风险最小的:
医学文献检索和摘要。 帮医生快速检索 PubMed、CNKI 上的相关文献,生成摘要,跟踪某个领域的最新进展。这不涉及临床决策,不属于医疗器械,合规风险极低。
import anthropic
from typing import List
def summarize_medical_literature(
papers: List[dict],
clinical_question: str
) -> str:
"""
针对临床问题,总结相关文献
注意:这是文献辅助工具,不是诊断工具
"""
client = anthropic.Anthropic()
papers_text = "\n\n".join([
f"【{p['title']}】({p['journal']}, {p['year']})\n{p['abstract']}"
for p in papers
])
prompt = f"""你是一个医学文献助手,帮助医生快速梳理文献。
临床问题:{clinical_question}
相关文献:
{papers_text}
请总结这些文献对该临床问题的主要发现,注意:
1. 只基于提供的文献内容,不添加额外推断
2. 明确区分证据级别(RCT、观察性研究等)
3. 指出文献之间如果有相互矛盾的发现
4. 最后说明文献的局限性
这是文献摘要,仅供参考,临床决策由医生做出。"""
response = client.messages.create(
model="claude-sonnet-4-5",
max_tokens=800,
messages=[{"role": "user", "content": prompt}]
)
return response.content[0].text医学教育内容生成。 帮医学院校生成案例讨论题、知识点总结、考题。这是教育工具,不是医疗器械。
科研数据分析辅助。 帮研究人员分析问卷数据、生成统计报告、可视化临床研究结果。不涉及诊断,是科研辅助。
医院非临床业务自动化。 挂号、排班、采购、财务——医院里有大量和临床无关的行政工作,AI 自动化的合规风险低,市场需求真实存在。
合规要求的工程含义
医疗场景对工程的要求和其他行业有显著差异,即使是合规风险低的工具,也要考虑以下问题:
患者数据不能出院。
医院的 HIS(医院信息系统)数据、电子病历数据,受《个人信息保护法》、《医疗数据安全管理规定》保护,不能送到外部 API 处理。
这意味着:你如果想用 LLM 分析电子病历,必须是私有化部署——把模型部署在医院的内网服务器上,数据不离院。这直接拉高了技术门槛(需要能部署运维开源大模型的能力)和销售门槛(医院的信息化采购周期很长)。
私有化部署的最低配置参考:
Qwen2.5-14B-Instruct 私有化部署
显卡:2 x A100 80GB 或 4 x A10 24GB
内存:512GB RAM
存储:2TB NVMe SSD(模型+数据)
操作系统:Ubuntu 22.04 LTS
推理框架:vLLM 或 Ollama
预估采购成本:
GPU 服务器:¥80-150 万(新购)
或 GPU 云服务器:¥5-10 万/月(租用)对大部分创业公司来说,这个成本是直接的筛选器。
数据访问要有完整的审计日志。
谁在什么时候用了哪些数据,每一条操作都要记录。这是合规审查的基本要求。
import logging
import json
from datetime import datetime
from functools import wraps
# 专用的医疗数据访问审计日志
audit_logger = logging.getLogger('medical_audit')
audit_logger.setLevel(logging.INFO)
# 配置日志输出到专用文件,格式符合审计要求
handler = logging.FileHandler('/var/log/medical-ai/audit.log')
handler.setFormatter(logging.Formatter('%(message)s'))
audit_logger.addHandler(handler)
def medical_data_access(data_type: str, purpose: str):
"""
装饰器:记录医疗数据访问的审计日志
每次访问都记录:操作者、数据类型、用途、时间戳
"""
def decorator(func):
@wraps(func)
def wrapper(*args, **kwargs):
# 从请求上下文获取用户信息(示意)
operator_id = kwargs.get('operator_id', 'unknown')
patient_id = kwargs.get('patient_id', 'unknown')
audit_record = {
"timestamp": datetime.utcnow().isoformat(),
"operator_id": operator_id,
"patient_id": patient_id, # 记录涉及的患者(如有)
"data_type": data_type,
"purpose": purpose,
"function": func.__name__,
"action": "ACCESS"
}
try:
result = func(*args, **kwargs)
audit_record["result"] = "SUCCESS"
audit_logger.info(json.dumps(audit_record, ensure_ascii=False))
return result
except Exception as e:
audit_record["result"] = "FAILURE"
audit_record["error"] = str(e)
audit_logger.info(json.dumps(audit_record, ensure_ascii=False))
raise
return wrapper
return decorator
# 使用示例
@medical_data_access(data_type="patient_record", purpose="literature_search_assist")
def search_relevant_literature(patient_id: str, operator_id: str, symptoms: str):
# 基于症状描述检索文献,不直接使用患者隐私信息
anonymized_query = extract_clinical_terms(symptoms) # 先匿名化
return search_pubmed(anonymized_query)算法偏见要额外关注。
医疗 AI 的偏见问题比其他行业更严重,因为它直接影响健康结果。训练数据如果主要来自某类人群(比如三甲医院的数据里高收入人群比例高),模型对其他人群的准确性可能系统性更低。
这不只是道德问题,是合规要求——医疗器械注册的临床试验必须覆盖足够多样的人群,证明在不同人群里的效果差异在可接受范围内。
为什么医疗 AI 的门槛不会降低
有人可能会想:随着大模型能力越来越强,合规门槛会不会越来越低?
我的判断是:不会,甚至可能会更严。
原因是:医疗 AI 的规管不是因为技术能力不够,而是因为错误的后果是人命。技术越强大,监管者越谨慎,因为技术越强大,出了问题影响越大。
美国 FDA 的经验可以参考:FDA 批准的医疗 AI 软件,从 2017 年的个位数到现在每年几十个,但批准流程一直在收紧,要求越来越详细,不是越来越宽松。
国内的 NMPA 在医疗 AI 上的监管趋势也是类似的——在逐步细化要求,不是放松要求。
工程师在医疗领域的生存策略
说了这么多限制,最后给一个务实的建议:
不要想着做临床核心场景。 影像诊断、辅助决策——这条路需要大量临床数据、漫长的注册周期、和医院深度的合作关系,不是小团队能快速跑通的。
从医院的非临床需求切入。 院内行政效率、医学教育、科研辅助、患者服务(挂号提醒、出院随访)——这些场景合规风险低,需求真实,而且医院真的很愿意提升效率,预算也有。
积累医疗行业知识。 做医疗 AI 最重要的不是技术,是对医疗行业流程的理解。愿意花时间学的工程师,比只会写代码的工程师在这个行业有大得多的优势。
和有资质的合作方搭档。 如果真的想做临床场景,找一个已经有 II 类医疗器械资质的公司合作,借用他们的合规体系,而不是从零开始拿证。
医疗 AI 是一个真实的机会,但它的护城河是合规能力,不是技术能力。技术会被复制,合规资质不容易被复制。搞清楚这一点,才知道应该在哪里投入。
