
近期,社交媒体上广泛传播着关于OpenAI对ChatGPT使用政策进行更新,从而禁止其提供法律和健康建议的传言。对此,OpenAI健康AI负责人Karan Singhal在X平台(原Twitter)上明确表示,这些说法“并非属实”,并强调ChatGPT的行为“保持不变”。
Singhal进一步解释道:“ChatGPT从未被定位为专业建议的替代品,但它将继续作为帮助人们理解法律和健康信息的宝贵资源。”他引用了Kalshi(一家预测市场平台)的一则已删除的帖子,该帖子曾声称“突发:ChatGPT将不再提供健康或法律建议”。
根据Singhal的说法,关于法律和医疗建议的政策内容“并非我们条款的新增内容”。OpenAI于10月29日更新的政策中,确实包含了一项禁止事项,即“在未获得有执照专业人士适当介入的情况下,提供需要执照的定制化建议,例如法律或医疗建议。”
这一规定与OpenAI之前的ChatGPT使用政策基本一致。此前的政策曾规定,用户不应进行“可能显著损害他人安全、福祉或权利的活动”,其中包括“在未经合格专业人士审查并披露AI辅助使用及其潜在局限性的情况下,提供定制化的法律、医疗/健康或财务建议。”
值得注意的是,OpenAI此前曾有三项独立的政策,包括一项“通用”政策,以及针对ChatGPT和API使用的独立政策。此次更新后,公司采用了一份统一的规则列表,其更新日志称“反映了OpenAI产品和服务的通用政策集”,但其核心原则并未发生改变。
关键信息回顾:
- 传言澄清: 社交媒体上关于ChatGPT禁止提供法律和健康建议的说法是错误的。
- OpenAI官方回应: OpenAI健康AI负责人Karan Singhal确认ChatGPT的行为未发生变化。
- 性质定位: ChatGPT始终不是专业法律或健康建议的替代品。
- 功能定位: ChatGPT仍可作为理解相关信息的辅助工具。
- 政策更新: 10月29日的更新统一了OpenAI的产品政策,其中包含对提供定制化专业建议的限制,但此原则并非新规,与过往政策精神一致。

































