对AI超级智能研究的深度审视:全球精英为何呼吁暂停?
近年来,人工智能(AI)技术的迅猛发展,尤其是谷歌、Grok、Meta和OpenAI等科技巨头在追求“最智能模型”方面的激烈竞争,正以前所未有的速度推动着社会变革。然而,伴随AI带来的巨大潜在利益,其可能引发的负面影响也日益凸显,这使得全球范围内对AI发展的审慎态度和监管呼声日益高涨。
核心议题:AI发展与潜在风险
AI技术在诸多领域展现出革新潜力,但在其快速进步的背后,也隐藏着诸如“AI精神病”等心理影响,乃至更深层次的伦理与社会挑战。如何负责任地看待、处理和开发AI,已成为全人类共同面临的重要课题。
全球共识:超700位专家联署声明
鉴于此,一项具有里程碑意义的声明于近期发布,超过700位重量级公众人物共同署名,呼吁在全球范围内禁止AI超级智能的开发,直至其安全性得以完全验证,并获得公众的广泛认可。该声明明确指出,开发能够超越人类几乎所有认知任务的AI,尤其是在缺乏有效监管的情况下,将带来令人担忧的后果。
忧虑核心:自由、安全与生存
联署者表达的担忧涵盖了多方面,包括个人自由的丧失、国家安全面临的潜在威胁,乃至人类文明可能面临的生存危机,这些都已成为他们关注的焦点。此次联署名单星光熠熠,不仅包括了“AI教父”Yoshua Bengio和Geoffrey Hinton等顶级学者,还有前政策制定者、以及Kate Bush和Joseph Gordon-Levitt等知名艺人。
业界巨头的先行警告
值得注意的是,埃隆·马斯克(Elon Musk)曾多次对AI的危险性发出警告,甚至将AI描述为“召唤恶魔”。他此前也与其他科技领袖一道,于2023年初签署了一封类似的公开信,呼吁暂停AI研究,显示出业界对于该问题的普遍关注。
公众立场:呼唤严格监管
与此同时,Future of Life Institute近期发布的一项全国民意调查结果进一步印证了公众的担忧。调查显示,仅有5%的受访美国民众支持当前这种快速、无监管地向超级智能发展的模式。相形之下,超过一半(64%)的受访者认为,在AI超级智能被证明安全且可控之前,不应进行开发。更令人瞩目的是,73%的民众强烈呼吁对先进AI实施强有力的监管。
持续发酵:签名人数不断增长
目前,这一呼吁暂停AI超级智能开发的声明持续接受公众签署,截至撰稿时,签名人数已突破27,700人,显示出该议题在社会各界引发的广泛共鸣与深刻反思。这些呼声强调了在AI发展道路上,安全、伦理和公众参与的重要性,远超单纯的技术进步速度。

Calls for AI regulation aren’t in short supply. Will anyone listen? Cole Kan/CNET/Getty









