5月30日消息,350位AI行业的高管、研究人员和工程师日前签署了一封公开信,表示担忧AI技术将对人类带来生存威胁。这封信由位于非营利组织人工智能安全中心发布,其中仅有一句话:“降低人工智能带来的灭绝风险应该成为一个全球优先事项,与大流行病、核战争等其他社会规模的风险并列。”
OpenAI首席执行官Sam Altman、Google DeepMind首席执行官Demis Hassabis、Anthropic首席执行官Dario Amodei三位 AI公司高管,以及2018年图灵奖得主Geoffrey Hinton、Yoshua Bengio已签署这封信。
自ChatGPT掀起AI热潮以来,对这项技术潜在风险的担忧持续增加。此次公开信引发了广泛关注和热议,也使得人们对 AI技术的发展和应用有了更加深入的思考与探讨。
这份声明由总部位于旧金山的非营利组织人工智能安全中心发布,他们认为AI对人类构成生存威胁,所以发出了新的警告。整份声明仅有一句话,全部内容如下:
“降低人工智能带来的灭绝风险应该成为一个全球优先事项,与大流行病、核战争等其他社会规模的风险并列。”
此前,马斯克联合超过千名产业界和学术界的大佬们,在“生命未来研究所(Future of Life Institute)”网站上发布联名公告。公开信中主要传达了两个方面的信息:一是警告人工智能存在对人类社会的潜在威胁,要求立刻暂停任何比GPT-4更强大的人工智能系统的训练,时间跨度至少6个月。二是呼吁整个人工智能领域以及政策制定者们,要共同设计一套全面的人工智能治理系统,对人工智能技术的发展进行监督和审查。