关注我们
QRcode 邮件联系 新浪微博
首页 > 资讯 » 正文

科技巨头做出人工智能安全承诺——包括如果无法降低风险则采取“终止开关”

 ssw
该协议将使来自美国、中国、加拿大、英国、法国、韩国和阿拉伯联合酋长国等国家的公司自愿承诺确保其最先进的人工智能模型的安全开发。 周二达成的协议扩大了去年 11 月在英国布莱切利园举行的英国人工智能安全峰会上参与生成人工智能软件开发的公司做出的一系列承诺。

包括微软在内的众多大型科技公司,亚马逊周二,在首尔人工智能安全峰会上,OpenAI 和 OpenAI 就人工智能安全达成了一项具有里程碑意义的国际协议。

该协议将使来自美国、中国、加拿大、英国、法国、韩国和阿拉伯联合酋长国等国家的公司自愿承诺确保其最先进的人工智能模型的安全开发。

在尚未这样做的情况下,人工智能模型制造商将各自发布安全框架,列出他们将如何衡量其前沿模型的风险,例如检查不良行为者滥用技术的风险。

这些框架将包括科技公司的“红线”,定义与前沿人工智能系统相关的风险类型,这些风险被认为是“无法容忍的”——这些风险包括但不限于自动网络攻击和生物武器的威胁。

在这种极端情况下,公司表示,如果他们不能保证减轻这些风险,他们将实施“终止开关”,停止开发人工智能模型。

英国首相里希·苏纳克(Rishi Sunak)周二在一份声明中表示:“来自全球不同地区的如此多领先的人工智能公司都同意对人工智能安全做出相同的承诺,这在世界上尚属首次。”

“这些承诺确保世界领先的人工智能公司将为其开发安全人工智能的计划提供透明度和问责制,”他补充道。

周二达成的协议扩大了去年 11 月在英国布莱切利园举行的英国人工智能安全峰会上参与生成人工智能软件开发的公司做出的一系列承诺。

这些公司已同意从“值得信赖的参与者”(包括适当的本国政府)获取有关这些阈值的意见,然后在计划于 2025 年初在法国举行的下一次人工智能峰会(法国人工智能行动峰会)之前发布这些阈值。

周二达成的承诺仅适用于所谓的“前沿”模型。该术语指的是生成式 AI 系统背后的技术,例如 OpenAI 的 GPT 系列大型语言模型,它为流行的 ChatGPT AI 聊天机器人提供了动力。

自从 ChatGPT 于 2022 年 11 月首次向世界推出以来,监管机构和技术领导者越来越担心能够生成与人类同等或更好的文本和视觉内容的先进人工智能系统所面临的风险。

欧盟试图通过制定《人工智能法案》来限制不受限制的人工智能发展,该法案于周二获得欧盟理事会批准。

然而,英国尚未提出正式的人工智能法律,而是选择了“宽松”的人工智能监管方法,要求监管机构将现有法律应用于该技术。

政府最近表示,将考虑在未来某个时候对前沿模型进行立法,但尚未承诺引入正式法律的时间表。

本文标签:
《邓婷访谈》专访美国繁荣华埠总会主席田士锐
国内AI大模型开启“免费午餐”,降价内卷杀出巨头在提价?