(SeaPRwire) – 根据专门与《时代》周刊分享的顶级专家预测,人工智能的最新发展可能意味着人为造成的疫情爆发的可能性是仅仅一年前的五倍。
这些数据与人工智能公司OpenAI和Anthropic近几个月提出的担忧相呼应,这两家公司都警告说,目前的人工智能工具正在达到能够有意义地协助试图制造生物武器的不法分子的能力。
长期以来,生物学家一直可以使用实验室技术来修改病毒。新的发展是,像ChatGPT或Claude这样的聊天机器人可以为试图在实验室中制造致命生物武器的业余生物学家提供准确的故障排除建议。该研究的合著者Seth Donoughe表示,安全专家长期以来一直认为这种故障排除过程的困难是恐怖组织制造生物武器能力的一个重要瓶颈。现在,他说,由于人工智能,故意引发新的疫情所需的专业知识“可能变得对更多人来说是触手可及的”。
在2024年12月至2025年2月期间,预测研究所(Forecasting Research Institute)要求46位生物安全专家和22位“超级预测者”(在预测未来事件方面具有较高成功率的个人)评估人为造成疫情的风险。调查对象的平均预测是,在任何一年发生这种情况的风险为0.3%。
至关重要的是,调查人员随后提出了另一个问题:如果人工智能工具能够在困难的病毒学故障排除测试中达到专家团队的水平,那么这种风险会增加多少?如果人工智能能够做到这一点,专家们平均表示,那么年度风险将跃升至1.5%——增加五倍。
预测者们不知道的是, pandemic prevention nonprofit SecureBio 的研究科学家Donoughe,正在测试人工智能系统是否具备这种能力。今年4月,Donoughe的团队公布了这些测试的结果:目前顶级的人工智能系统可以在困难的故障排除测试中胜过博士级别的病毒学家。
换句话说,人工智能现在可以做到预测者警告说会使人为造成疫情的风险增加五倍的事情。(预测研究所计划在未来重新调查相同的专家,以追踪他们对风险的看法是否像他们所说的那样增加,但表示这项研究需要数月才能完成。)
可以肯定的是,有几个理由对结果持怀疑态度。预测是一门不精确的科学,尤其难以准确预测非常罕见事件的可能性。研究中的预测者也暴露出对人工智能进步速度缺乏了解。(例如,当被问及时,大多数人表示他们预计人工智能要到2030年以后才能在病毒学测试中超越人类的表现,而Donoughe的测试表明,这个门槛已经被达到了。)但即使这些数字本身带有几分怀疑,论文的作者认为,作为一个整体,结果仍然指向一个不祥的方向。“看起来,近期的AI能力可能会有意义地增加人为造成流行病的风险,”预测研究所首席执行官Josh Rosenberg说。
该研究还确定了降低人工智能带来的生物武器风险的方法。这些缓解措施大致分为两类。
第一类是在模型层面的保障措施。在访谈中,研究人员欢迎OpenAI和Anthropic等公司为防止其人工智能响应旨在制造生物武器的提示而做出的努力。该论文还指出,限制“”模型的扩散,并增加针对模型被的保护措施,可能降低人工智能被用于启动疫情的风险。
第二类保障措施涉及对合成核酸的公司施加限制。目前,可以将基因代码发送给其中一家公司,并交付与该代码相对应的生物材料。今天,法律没有规定这些公司在合成之前必须筛选他们收到的基因代码。这可能很危险,因为这些合成的遗传材料可能被用来制造邮购病原体。该论文的作者建议实验室筛选其基因序列以检查其有害性,并建议实验室实施“了解您的客户”程序。
总而言之,如果实施所有这些保障措施,可以将人工智能引发疫情的风险降至0.4%,这是预测者平均所说的。(仅略高于他们认为世界在知道今天的人工智能可以帮助制造生物武器之前的0.3%的基线。)
“总的来说,这似乎是一个值得关注的新的风险领域,”Rosenberg说。“但对此有很好的政策回应。”
本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。
分类: 头条新闻,日常新闻
SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。
“`