美国纽约州立法监管“AI非法行医”,用户被误导可起诉
时间: 2026-03-06 16:30作者: 林榛
(文/万肇生 编辑/张光凯)
针对人工智能提供法律、医疗建议所带来的安全风险问题,美国纽约州正在审议一项新法案,旨在禁止AI聊天机器人冒充律师、医生等持证专业人士提供实质性回复,并允许被误导的用户起诉索赔。
据悉,这将是全美首部此类立法,其适用范围涵盖法律、医疗、心理健康等所有持证行业,是纽约州系列AI监管法案的重要组成部分之一。
涉及AI生成的健康类虚假信息,已充斥着美国互联网
据路透社报道,与全美各州一样,纽约州严禁无证人员冒充律师、医生提供服务,否则将构成非法执业。“但是,目前却没有任何法律可以限制大语言模型模仿律师、医生的回复”,纽约州参议员、法案发起人克里斯汀·冈萨雷斯5日称,“这非常令人担忧。”
冈萨雷斯还提到,如果有用户因轻信AI聊天机器人提供的错误行动建议而蒙受损失,有权提起诉讼。根据法案条款,即使平台标注了"非人类聊天机器人"的提示,也无法免除其法律责任。受害者可向法院起诉违规机器人所有者,要求损害赔偿。
该法案若通过,将在90天后正式生效
这里需要注意的是,法案规定“向所有者授权其聊天机器人技术的第三方开发商”排除在所有者定义之外,意味着OpenAI这类语言大模型提供商并非该法案的主要目标。而那些采用这些模型,并将其部署到专业咨询领域、供最终用户使用的公司和机构,才将承担法律风险。
另一方面,随着近年来美国医疗保健系统日益复杂且难以获取,美国人在OpenAI旗下的ChatGPT平台上进行健康提问,已从个别行为发展为一种普遍的社会现象。根据OpenAI在2026年初发布的一份报告显示,超过4000万美国人每天使用ChatGPT咨询医疗健康相关问题。
而从全球范围来看,与医疗相关的提示词已占ChatGPT所有消息的5%以上,有四分之一的用户,每周会提交至少一个健康相关的问题。同时,患者也在就医过程中越来越深入地使用AI问诊,包括将检查结果、医学影甚至医嘱发给AI,寻求解释或第二诊疗意见。
如此大规模的AI问诊现象,也引起临床医生及学者们的担忧。根据2025年4月一项针对PubMed中涉ChatGPT的文献分析报告显示,虽然ChatGPT可以回答常见医学问题、提供建议,并在不太复杂的场景中对症状进行分类,但其临床准确率却在20-95%之间大幅波动,极其不稳定,不适合作为独立的临床即时决策工具。
此外,OpenAI、谷歌Gemini及Character.AI还曾因AI生成的回复最终导致用户自杀而被起诉。虽然这些企业否认指控并达成了部分和解,但争议持续发酵。就在本周内,日本生命保险美国子公司刚刚起诉了OpenAI,指控ChatGPT无证执业、诱导前伤残索赔人违反和解协议,并向联邦法院提交了大量毫无根据的法律文件进行滥诉。而OpenAI则回应称,该指控"缺乏依据"。
至于这次的纽约州AI职业冒充禁令能否成功,将取决于其定义的精确性和法院的解释,关键在于“实质性回应”的定义。比如,AI摘要公开的法律条文或建议,可能只是提供信息。但当它将信息应用到用户的特定情况时,或被认定为越界,最终还需要法院来界定。
目前,OpenAI、 Anthropic等公司均未进行置评。