研究称,顶尖AI公司风险管理“令人无法接受” “`
(SeaPRwire) – 周四发布的两项新研究表明,世界领先的 AI 公司在风险管理方面存在“不可接受”的水平,并且“在许多安全领域缺乏显著的承诺”。
即使是当今的 AI 所带来的风险——许多顶级公司自己也承认——可能包括 AI 帮助不良行为者进行网络攻击或制造生物武器。顶尖科学家担心,未来的 AI 模型可能会完全逃脱人类的控制。
这些研究由非营利组织 SaferAI 和未来生命研究所 (FLI) 进行。 每项研究都是系列研究中的第一项,这些团体希望该系列能够激励顶尖 AI 公司改进其措施。
“我们希望让人们很容易看到谁不仅仅是在夸夸其谈,而且还在真正践行,”FLI 主席 Max Tegmark 说。
SaferAI 对顶尖 AI 公司的风险管理协议(也称为负责任的扩展策略)进行评分,以评估每家公司识别和减轻 AI 风险的方法。
在 SaferAI 对风险管理成熟度的评估中,没有一家 AI 公司的得分高于“弱”。得分最高的是 Anthropic (35%),其次是 OpenAI (33%)、Meta (22%) 和 Google DeepMind (20%)。 埃隆·马斯克的 xAI 得分为 18%。
有两家公司 Anthropic 和 Google DeepMind 的得分低于 2024 年 10 月首次进行的研究。 结果意味着 OpenAI 在 SaferAI 的评级中超过了 Google,位居第二。
SaferAI 的创始人 Siméon Campos 表示,尽管 Google 在安全研究方面做了一些有益的工作,但由于该公司在其政策中很少做出坚定的承诺,因此得分相对较低。 该公司今年早些时候还发布了前沿模型 Gemini 2.5,但没有分享安全信息——Campos 称之为“令人震惊的失败”。 Google DeepMind 的一位发言人告诉《时代》杂志:“我们致力于安全可靠地开发 AI,以造福社会。 AI 安全措施涵盖了广泛的潜在缓解措施。 这些最新报告没有考虑到 Google DeepMind 的所有 AI 安全工作,也没有考虑到所有行业基准。 我们全面的 AI 安全方法远远超出了报告所涵盖的范围。”
自 SaferAI 在 10 月份进行评估以来,Anthropic 的得分也有所下降。 部分原因是该公司在发布 Claude 4 模型前几天对其政策进行了更改,Anthropic 取消了在发布该级别模型时解决内部威胁的承诺。“这是一个非常糟糕的过程,”Campos 说。 Anthropic 没有立即回应置评请求。
该研究的作者还表示,自去年 10 月以来,其方法变得更加详细,这解释了评分中的一些差异。
得分提高最多的公司是 xAI,得分为 18%,而 10 月份为 0%; Meta 得分为 22%,而之前的得分为 14%。
FLI 的研究范围更广——不仅关注风险管理实践,还关注公司应对当前危害、生存安全、治理和信息共享的方法。 一个由六名独立专家组成的小组根据对公开资料(如政策、研究论文和新闻报道)的审查,以及公司有机会提供的其他非公开数据,对每家公司进行了评分。 Anthropic 的得分最高(C+)。 OpenAI 得分为 C,Google 得分为 C-。(xAI 和 Meta 的得分均为 D。)
然而,在 FLI 对每家公司“生存安全”方法的评分中,每家公司的得分均为 D 或以下。“他们都在说:我们想要制造出在各个方面都能胜过人类的超级智能机器,但尽管如此,他们并没有一个计划来控制这些东西,”Tegmark 说。
本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。
分类: 头条新闻,日常新闻
SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。
“`