迈阿密的医疗事故律师乔纳森·弗雷丁 (Jonathan Freidin) 表示,他每周都会注意到,人们会在他公司的客户联系表上填写一些充满表情符号和标题的文字。这是他们从 ChatGPT 复制并粘贴的一个明显迹象。其他客户会说他们已经使用人工智能对潜在案例进行了“大量研究”。 “我们看到越来越多的来电者感觉自己有病例,因为 ChatGPT 或 Gemini 告诉他们,医生或护士以多种不同的方式低于护理标准,”弗里丁告诉我。 “虽然这可能是真的,但这并不一定能转化为可行的案例。”

人们越来越多地转向生成式人工智能聊天机器人来研究从晚餐食谱到复杂的法律和医疗问题的一切。法律软件公司 Clio 于 2025 年 12 月进行的一项调查显示,57% 的消费者表示他们已经或将使用人工智能来回答法律问题。 Zocdoc 2025 年的一项调查发现,三分之一的美国人每周使用生成式人工智能工具来获取健康建议,十分之一的人每天都使用它。 Zocdoc 首席执行官 Oliver Kharraz 在报告中预测,“人工智能将成为症状检查、分诊和导航等预护理需求以及补充和筛查等日常任务的首选工具。”他警告说,他还相信“患者会认识到它无法替代绝大多数医疗保健互动,尤其是那些需要人类判断、同理心或复杂决策的互动。”如果他错了,Zodoc 及其竞争对手就会遇到问题。

医生和律师现在正在筛选生成式人工智能电子邮件,或努力让外行相信他们拥有专业知识,并了解每个当地法官的行为方式或患者的病史如何影响他们的病情的细微差别。生成式人工智能使获取通常难以捉摸且昂贵的信息的方式变得民主化,但它也改变了法律和医疗专业人员与人们交谈的方式以及人们对他们的期望。

ChatGPT 是新的 WebMD 和 LegalZoom,只需几个提示即可将普通人变成纸上谈兵的专家。这让真正的专家都抓狂了。

新泽西州的家庭法律师杰米·伯杰 (Jamie Berger) 表示:“我们必须将他们能够获得的信息与案件中实际发生的情况进行对比,并进行倒推。”例如,伯杰说,直到最近,大多数人对离婚的法律程序知之甚少,甚至一无所知,并且会向律师寻求信息。现在,他们可能会配备逐步的游戏计划,但它是通用的,并且可能不是最适合他们的情况。伯杰会在给客户发电子邮件后注意到,如果他们的语气突然改变,他们可能正在使用人工智能写出冗长的法律策略或问题。然后,她必须解释,“这不一定是你的实际情况”,并解决他们的不同观点。 “你必须以一种以前不存在的方式重建或建立律师与委托人的关系,”伯杰说。 “他们没有意识到,沿途有如此多的分支,从 A 到 Z 并不是一条直线。”

人工智能无需等待即可提供第二意见。

就像真正的专家一样,生成式人工智能聊天机器人的讲话具有权威性。这比阅读有关法律问题的博文或论坛上的医疗状况摘要更有说服力。在 Survey Monkey 和金融服务公司 Express Legal Funding 于 2025 年进行的一项调查中,三分之一的美国人表示同意,该调查询问:“你是否会比人类专家更信任 ChatGPT?”,尽管受访者不太可能使用它来获取医疗和法律建议,而更有可能通过它来获取教育和财务建议。

聊天机器人还拥有无限量的医生最宝贵的资源:时间。虽然医生面临着快速评估和咨询患者的压力,但聊天机器人始终可用,并且旨在以肯定用户的方式做出响应。人们通过智能手表和 Oura 戒指等可穿戴设备获得了比以往更多的健康数据。由于他们已经习惯了按需提供信息和服务,因此从医生那里获得答案是一直被保留的事情之一——人们通常要等待数月才能与专家预约,或者花费数小时与保险公司争取费用。人工智能医疗抄写工具 Heidi 的首席医疗官汉娜·艾伦 (Hannah Allen) 表示:“他们真的很喜欢这种节奏,因为他们知道 ChatGPT 永远不会消失,永远不会睡觉,永远不会说不,永远不会说,‘抱歉,你的清单太长了’。”

人工智能还可以提供第二意见,无需等待。远程治疗平台 Marvin Behavioural Health 的临床服务总监 Heidi Schrumpf 表示,她曾让患者在咨询结束后回来告诉她,他们将她的输入信息输入到 ChatGPT 或另一个人工智能机器人中,并且他们信任她,因为机器人证实了她所说的话。但斯克鲁普夫并没有因为受到双重检查而感到生气。 “很高兴他们能够快速获得第二意见,如果我不同意,他们可以向我提出更好的问题。”

健康政策研究组织 KFF 于 2024 年追踪健康错误信息的民意调查发现,17% 的美国成年人表示他们每月至少咨询一次人工智能聊天机器人,但其中 56% 的人对人工智能聊天机器人提供的信息的准确性并不确定。尽管如此,越来越多的人转向 ChatGPT。 “这种技术确实希望鼓励患者继续与他们互动,”艾伦说。 “最终,你确实需要一个人来理解沟通的细微差别、软沟通技巧、不言而喻的沟通技巧,以及整个医疗情况和历史。”

如果没有详细信息,聊天机器人可能会提供一般性建议。但提供过多的个人详细信息也是一种风险。人们正在将自己的全部病史交给 ChatGPT,但保护机密健康信息的联邦法律 HIPAA 并不适用于消费者人工智能产品。佛蒙特州法学院院长贝丝·麦考马克 (Beth McCormack) 表示,如果人们将太多有关案件的具体信息放入聊天机器人中,人们从律师-委托人保密特权中获得的保护也可能会失效。而且,他们可能仍然需要律师才能真正理解人工智能法律建议的含义。 “法律有很多细微差别,”麦科马克说。 “这非常取决于事实。”

OpenAI 发言人拒绝就此事的记录发表评论,但告诉我 ChatGPT 并不是要取代法律或医疗建议,而是作为一种免费资源来帮助人们理解医疗和法律信息。该发言人还表示,该公司正在努力改进其模型的响应能力,并在发生法律调查时采取措施保护个人数据。 OpenAI 去年秋天对其政策进行了修改,规定用户不能向 ChatGPT 寻求“在没有获得许可的专业人士适当参与的情况下提供需要许可的定制建议,例如法律或医疗建议”,但聊天机器人仍然会回答与健康和法律相关的问题。

专业人士并不完全反对患者和客户咨询人工智能。医生短缺,而且需要用人们没有的预付款聘请律师的案件。虽然人工智能吐出的信息并不总是完美的,但它在很大程度上使以前保守的法律和医疗建议变得容易获取,并且无需行话就能将其分解。加州人身伤害和就业律师 Golnoush Goharzad 表示,对于那些无力承担前期法律费用的人来说,在某些情况下求助于人工智能可能会有所帮助。人们是 使用 ChatGPT 在法庭上代表自己,担任替身治疗师、营养师或物理治疗师。对于那些请不起律师、面临驱逐或需要提起小额索赔案件等问题的人来说,人工智能工具帮助他们赢得了胜利。但戈哈扎德说,她曾与朋友进行过交谈,他们认为自己有理由起诉房东或其他人。她问道:“为什么?这甚至没有任何意义,而他们认为,ChatGPT 认为这是有道理的。”

聊天机器人的闸门已经打开,专业人士想要抵抗它们已经太晚了。人们将继续进行自己的研究。专家表示,与其与之抗争,不如识别并建议人们使用它们的最佳方法。 “作为临床医生,我们需要牢记,这可能是一种正在使用的工具,而且它可能非常有帮助,特别是在一些指导并将其整合到我们的治疗计划中时,”施伦普夫说。 “但如果我们不注意的话,事情可能会出岔子。”对于专家来说,现在是时候假设人工智能也在解决这个问题了。


阿曼达·胡佛 是《商业内幕》报道科技行业的高级记者。她撰写有关最大的科技公司和趋势的文章。

《商业内幕》的讨论故事通过分析、报告和专业知识提供了对当今最紧迫问题的看法。

1767779718
#ChatGPT #是新的 #WebMD
2026-01-07 09:17:00

Leave a Reply

Your email address will not be published. Required fields are marked *