人工智能聊天机器人不是医疗器械
为什么 FDA 想要监管 AI 健康应用?
2025年11月,美国食品药品监督管理局(FDA)在数字健康咨询委员会会议上讨论是否将人工智能心理健康聊天机器人视为医疗器械。FDA 表示,计划对其认为属于“医疗器械”的软件功能实施监管,尤其是在功能缺陷可能危及患者安全的情况下。这一方法也适用于生成式 AI 产品。
然而,这种监管可能错误地涵盖许多仅作为健康应用的聊天机器人,而它们并不符合医疗器械的定义。文章认为,FDA 将医疗器械法规应用于此类健康聊天机器人是错误的。
注册医疗器械的成本极高。首先,每年需支付11,423美元的注册费。随后,公司还需承担繁琐的政府审查,包括上市前性能文件、风险管理设计和上市后报告。这些成本会降低产品的可及性。
FDA 将产品或服务定义为医疗器械的标准是:用于诊断、治愈、缓解、治疗或预防特定疾病,包括心理健康问题。AI 聊天机器人并不具备这些功能。
心理健康聊天机器人提供的是一般性应对技巧、正念练习和认知行为疗法式的重构,旨在支持用户的整体健康,而非治疗具体疾病。它们不会在交互前后评估用户,也不会提供个性化的医疗干预,因此显然不属于医疗器械。
FDA 确实监管那些明确用于治疗的数字应用。例如,Rejoyn 和 DaylightRx 被归类为医疗器械,因为它们明确用于治疗抑郁症等已诊断的心理健康问题。这类应用需要更高的准确性和责任。
AI 心理健康聊天机器人不同,它们不声称进行诊断或治疗,更适合被归类为“健康应用”。它们的作用是帮助人们理解自己或改善情绪。
心理学家和用户指出,这些聊天机器人能回应问题和抱怨,提供对话总结,并建议思考主题。这些都是一般性的健康支持,而非临床护理。开发公司也明确说明了这一点。
在 FDA 的公开评论中,开发 Ash 聊天机器人的 Slingshot AI 表示,其目标是提供“让心理健康支持更易获得的一般健康服务”,而不是治疗或诊断。另一款聊天机器人 Wysa 也仅倾听和回应用户的情绪和想法,不进行诊断或治疗。
这些公司提供了一种低成本的沟通解决方案,全天候可用,尤其在美国心理健康资源短缺的背景下,满足了数百万人的需求。
Therabot 聊天机器人显示,它能在几周内使抑郁症状减少51%,并将中度焦虑降至轻度。Ash 的开发者进行的10周研究发现,72%的用户孤独感降低,75%的人感受到更多社会支持,80%的用户增加了希望感和生活参与度。这些产品正在帮助人们,FDA 不应通过新监管让获取变得更昂贵或复杂。
将心理健康聊天机器人视为医疗器械是错误的。它们不是专业治疗,更像是由持证专家开发的教育型聊天机器人,而非医疗顾问。
有人担心如果不作为医疗器械监管,AI 聊天机器人可能变得不安全。但业内公司已在设定更高标准。例如,ChatGPT 引入心理健康专家意见,能识别用户的痛苦、缓和对话,并引导用户寻求面对面的心理健康支持。Claude 的开发公司也与全球危机应用 ThroughLine 合作,帮助模型处理敏感对话。
与通用型聊天机器人不同,AI 心理健康聊天机器人专为敏感对话设计。Ash 就依赖专家意见和科学证据改善用户交互。其他如 Earkick、Elomia 和 Wysa 也如此。
将 AI 心理健康聊天机器人归类为医疗器械将阻碍其帮助有需要人群的进展。对这种提供显著益处的技术施加高昂监管成本,将损害寻求帮助的美国人。FDA 若做出此类决定,将是一个错误。

