大规模杀伤性武器人工智能安全漏洞

数字风险警告标志:一个发光的红色圆形警告标志,中间有一个感叹号,在黑暗的科技背景下格外醒目

(SeaPRwire) –   2023年,前联合国武器检查员兼科学家罗科·卡萨格兰德带着一个密封的小容器来到了白宫西翼旁边的艾森豪威尔行政办公大楼。里面有十几支试管,装着一些成分,如果组装得当,可能会引发致命的大流行病。

据卡萨格兰德称,一个人工智能聊天机器人不仅为他提供了致命配方,还给出了关于如何选择最佳天气条件和攻击目标的建议。卡萨格兰德带着这些东西去给政府官员介绍人工智能引发的大流行风险,这让安全官员们深刻认识到人工智能是多么迅速地突破了制造毁灭性武器的障碍。

制造大流行病的障碍已经降低,政策制定者们已经 。 提出了防御措施,并且 将化学和生物防御列为优先事项。

可能是出于真正的担忧和法律责任风险,前沿人工智能公司也展现出了领导力,这在首尔峰会上有所体现。这些公司公开承诺要降低化学、生物、放射、核和爆炸物(CBRNe)领域的风险。

然而,尽管采取了这些措施,一个令人担忧的安全漏洞仍然存在。虽然公司关注大流行病是好事,但整个生态系统过于聚焦单一的“独狼病毒恐怖分子”模式,将其视为最严重的威胁。对所有其他风险场景的关注则少得多。对个体行为者的关注使得国家和恐怖组织的威胁被严重忽视。

此外,大流行病毒风险并不能充分代表其他威胁。制造简易爆炸物、非传染性生物制剂和化学武器的技术步骤与传染性生物制剂不同。例如,制造和部署像沙林这样的化学武器,与制造病毒相比,涉及完全不同的一套技术步骤。因此,我们需要不同的人工智能安全测试。

然而,就其本身而言,这些“较小”的威胁仍然可能造成大量人员死亡,摧毁社区,并在各国引发混乱。我们有可能建立一个只专注于防范下一次大流行病的安全系统,却让其他形式的恐怖活动大门洞开。

令人担忧的是,我们看到一些主要的人工智能实验室在安全承诺方面 ,部分原因可能是它们缺乏履行这些承诺所需的机密数据。例如,一些人工智能公司公布了关于其模型是否会导致大流行的测试,但没有详细说明这些模型是否会有助于化学或简易爆炸物攻击。

这种遗漏是危险的。先进的人工智能不仅可以帮助个人制造武器,还可以帮助他们绕过出口管制并隐藏踪迹,使任何人都能规避国际防范措施而不被发现。至关重要的是,这造成了一个盲点,让我们所有人都容易受到我们最恐惧的大流行病的威胁。一个正在探索将人工智能用于化学或爆炸物攻击的流氓行为者,可能正在为明天的生物攻击进行演练。

如果我们的安全系统只在世界末日来临时才发出红色警报,我们将错过在此之前的警告信号。

我们需要在专家的指导下对风险进行更广泛的分类。需要进行根本性的重新平衡,以应对更多可能由人工智能引发的威胁,而不仅仅是最具灾难性的威胁。前沿公司及其顾问机构无法独自解决这个问题——它们缺乏机密情报来更清楚地了解国家和非国家行为者的威胁,也缺乏制定应对这一挑战所需的法律、架构和伙伴关系的政府机制和国际关系。相反,政府缺乏对人工智能能力和专有知识的全面了解,以及重要的可疑用户行为数据。这些信息孤岛导致了危险的沉默。

公私合作应该为国家安全而设计。这样的合作将把国家的机密情报与科技公司和第三方的专有数据结合起来,召集经过交叉审批的人员来发现任何一方单独都无法察觉的威胁。这将需要前所未有的创新水平,但好处将是巨大的。

的确,历史告诉我们,外交和政策可以拯救生命。大约半个世纪前,世界各国领导人参加了 并签署了一项禁止发展生物和毒素武器的裁军条约。去年是 的百年纪念,该条约禁止在国际武装冲突中使用化学和生物武器。它们都代表了关于使用这些武器的根本不人道性以及我们共同确保防止使用这些武器的责任的集体协议。

一个世纪前,那些了解新技术巨大破坏力的人意识到有必要对所有可预见的威胁采取果断行动。

在一个截然不同的时代,我们再次需要同样的决心——而且要趁早。

本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。

分类: 头条新闻,日常新闻

SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。