(SeaPRwire) – 美国政府必须“迅速果断”地采取行动,避免人工智能(AI)带来的重大国家安全风险,在最坏情况下,这可能导致“灭绝级别”的威胁人类。一份由美国政府委托的报告于周一发布。
“当前前沿AI开发带来迫在眉睫且日益增长的国家安全风险。”根据时间获得的报告提前内容,该报告说。“高级AI和AGI(人工通用智能)的兴起有可能以核武器引入时类似的方式破坏全球安全。”AGI是一种假设中的技术,它可能在人类或以上水平完成大多数任务。这样的系统目前还不存在,但领先的AI实验室正在朝这个方向工作,并可能在5年内或更短时间内实现。
该报告的三位作者在过去一年多的时间内进行研究,与200多名政府雇员、专家和前沿AI公司工作人员进行了交流,包括、、和在内,这是他们研究的一部分。一些对话的描述表明,许多AI安全工作人员担心这些公司的高管控制下的决策动机可能会驱使他们采取歪曲行动。
完成的文件名为“提高先进AI的安全性和安全性的行动计划”,建议一系列前所未有的政策行动。如果实施,这将从根本上改变AI行业。报告建议,国会应该禁止使用超过一定级别的计算能力进行AI模型训练。报告建议,新设立的联邦AI机构应确定这个阈值,但报告表明,该机构可以将其设置在当前 cutting-edge 模型如OpenAI的GPT-4和谷歌的Gemini使用的计算能力水平之上。新AI机构还应要求行业“前沿”公司在使用更高阈值进行训练和部署新模型前获得政府批准。报告补充说,当局还应“迫在眉睫”考虑禁止发布强大AI模型的“权重”或内部工作原理,例如根据开源许可证,违反可能面临监禁处罚。政府还应进一步收紧对AI芯片的制造和出口控制,并将联邦资金渠道定向“对齐”研究,旨在使先进AI更安全。
该报告于2022年11月由国务院委托,作为价值25万美元的联邦合同的一部分,根据公开记录。它是由Gladstone AI撰写的,这是一个由4人组成的公司,为政府雇员提供AI技术简报。(行动计划的一些建议是政府应大力投资在教育官员AI系统的技术基础,以便他们能更好地了解其风险。)该报告于2月26日以247页文件形式提交给国务院。国务院没有回应多次要求就该报告发表评论。报告的第一页说,这些建议“不反映美国国务院或美国政府的观点”。
报告的许多建议之前都被认为是不可能的。随着AI技术发展速度的加快,许多观察人士不得不重新评估这项技术。2022年11月发布的聊天机器人ChatGPT是首次让社会大众看到这种变化的速度,许多人开始质疑未来AI是否可能对人类构成存在性风险。自那时以来,技术公司继续以惊人的速度发布更强大的工具。同时,世界上最大的科技公司正在快速构建下一代更强大系统的基础设施——在某些情况下,计划使用10倍或100倍的计算能力。与此同时,根据AI政策研究所最近的民意调查显示,超过80%的美国公众认为AI可能 accidentally 导致灾难性事件,77%的选民认为政府应该更多地监管AI。
报告指出,禁止使用超过一定阈值的计算能力进行高级AI系统训练,可能“调节所有AI开发者之间的竞争动态”,并有助于减缓芯片行业制造更快硬件的速度。随着时间的推移,联邦AI机构可以提高阈值,允许使用更高级别的AI系统训练,只要 cutting-edge 模型的安全性证据足够充分。同样,报告提出,如果在现有模型中发现危险能力,政府也可以降低安全阈值。
该提案在政治上可能面临困难。战略与国际研究中心(CSIS)的瓦德瓦尼AI和先进技术中心主任格雷格·艾伦对时间提供的报告建议概述作出回应说:“我认为美国政府不太可能采纳这些建议,禁止使用一定计算能力以上进行AI训练。”他指出,当前美国政府的AI政策是在计算能力达到一定阈值时实施额外的透明监测和监管要求,但不会设置禁止训练的上限。他说:“如果没有外部冲击,我认为他们不太可能改变这种方法。”
本文由第三方内容提供商提供。SeaPRwire (https://www.seaprwire.com/)对此不作任何保证或陈述。
分类: 头条新闻,日常新闻
SeaPRwire为公司和机构提供全球新闻稿发布,覆盖超过6,500个媒体库、86,000名编辑和记者,以及350万以上终端桌面和手机App。SeaPRwire支持英、日、德、韩、法、俄、印尼、马来、越南、中文等多种语言新闻稿发布。