近期,美国知名公众人物金·卡戴珊在接受采访时坦承,自己在法律学习过程中依赖ChatGPT辅助备考,却因AI提供的信息不准确而导致考试失利。这一事件恰逢网络上关于ChatGPT停止提供法律和医疗建议的传闻甚嚣尘上,引发了公众对人工智能在关键领域辅助作用的广泛讨论。
传闻与事实:AI法律、医疗建议的界定
网络上曾广泛流传ChatGPT因更新服务条款,禁止提供涉及法律和医疗等需要专业执照的咨询。该条款原文指出:“未经许可提供需要执照的定制化建议,如法律或医疗建议。”然而,OpenAI健康AI负责人Karan Singhal已在社交媒体上澄清,这并非新条款,也未改变模型的行为。他解释道,该措辞旨在明确ChatGPT并非专业执业人士,其目的是为了法律合规,而非限制用户讨论相关话题。ChatGPT自始至终都非专业建议的替代品,但仍可作为辅助理解法律和健康信息的优质资源。
AI的局限性:警惕“自信的错误”
尽管AI技术飞速发展,但其在专业领域的局限性不容忽视。金·卡戴珊的经历并非个例,许多用户在与AI互动时,容易将AI输出内容的“自信”误读为“准确”。ChatGPT惯常使用带有深度理解的语言风格,即使在“编造”信息时,也可能显得言之凿凿,这即是所谓的“幻觉”问题,并常伴随一种“傲慢”的姿态。
理性使用AI:明确工具定位,规避潜在风险
ChatGPT在信息概括、概念解释方面表现出色,但将其视为法律或医疗等领域的权威信源,则可能带来严重后果。例如,用户可能依赖AI起草法律文件,最终却因其中包含错误或虚假的法律条文而面临法律风险。OpenAI的服务条款已明确提醒用户,ChatGPT并非任何领域的专业人士,不能替代持证专业人员。
AI可以帮助用户理解复杂的租赁协议或简化医学术语,但其提供的解释不具备法律效力或医疗诊断的准确性,且AI本身不对其输出内容的错误负责。对于涉及法律、健康等敏感领域,用户应始终保持审慎态度,将AI作为辅助工具,而非决策依据。
专家建议:批判性思维与多方核实
无论用户身份如何,对于AI生成的信息,都应进行多方核实和批判性评估。将ChatGPT用于学习辅助或信息查询是明智之举,但若将其视为解决生活重大决策(如法律诉讼或健康诊断)的唯一途径,则可能导致不必要的损失和风险。AI聊天机器人可以在特定情境下提供支持,但其最终价值,取决于用户自身的判断力与运用能力。
如果ChatGPT会被简单的光学错觉所蒙蔽,那么它提供的其他信息是否也值得信赖?
ChatGPT为这位女士赢得了10万美元,但您是否应该信任AI来选择彩票号码?
ChatGPT在识别您何时需要真人支持方面做得越来越好——我认为这早就该如此了










