路透社斯德哥尔摩5月30日消息,周二,包括 OpenAI 首席执行官Sam Altman在内的顶级人工智能高管与专家教授一起提出了“人工智能有灭绝人类的风险”。
他们敦促政策制定者们要将人工智能,与流行病和核战争带来的风险等同起来。
《人工智能安全中心》(Center for AI Safety,CAIS)发表的一封公开信中,有超过350位签署人。
公开信写道,减轻人工智能带来的人类灭绝风险应当成为全球的重点,AI与大流行病和核战争等社会规模的风险并驾齐驱。
签署人包括OpenAI的首席执行官Sam Altman,AI公司DeepMind和Anthropic的首席执行官,以及来自微软和谷歌等公司的高管。
同时,还包括了Geoffrey Hinton和Yoshua Bengio这两位被誉为“人工智能教父”的人物,他们因深度学习的工作而获得了2018年的图灵奖,以及来自哈佛大学和中国清华大学等机构的教授们。
CAIS的一份声明指出,第三位“人工智能教父”Yann LeCun在Meta公司工作,但他没有在这封公开信上签字。
这封公开信与美欧贸易与技术理事会在瑞典的会议同时发布,政界人士预计将讨论对人工智能进行监管的问题。
马斯克和一群人工智能专家和行业高管,今年在4月份首次提出了人工智能对社会可能带来的潜在风险。
人工智能领域的最新发展已经创造了新领域,一些支持者称AI现在已经可以用于医学诊断和撰写法律案件摘要等应用的工具。
但这引发了对于该技术可能导致的隐私侵犯,误导宣传以及“智能机器”自行思考等问题的担忧。
AI先驱Hinton早些时候告诉路透社,人工智能可能对人类构成比气候变化更“紧迫”的威胁。
上周,OpenAI的首席执行官Sam Altman称欧盟的人工智能监管努力为“过度监管”,并威胁要离开欧洲。
但在几天后,他在遭到政界人士批评后,改变了立场。
欧洲委员会主席冯德莱恩将于周四会见Sam Altman。
来源:
https://www.reuters.com/technolo … tion-ai-2023-05-30/
发布者:afndaily,转载请注明出处:www.afndaily.com