泡泡资讯网

OpenAI暂停英国“星际之门”项目,能源价格与监管成关键障碍

AIPress.com.cn报道

4月9日消息,据Axios报道,OpenAI正在完成一款具备更强网络安全能力的新模型,并计划采取分阶段发布策略,初期仅向少数企业开放访问权限。知情人士表示,这一做法类似于Anthropic近期对其MythosPreview模型所采取的有限发布方式。

报道称,随着人工智能在自动化能力和网络攻击技术方面的能力不断提升,AI公司开始对模型公开发布可能带来的安全风险保持更为谨慎的态度。一些业内人士认为,相关能力已经接近关键拐点,如果被恶意使用,可能对关键基础设施造成潜在威胁。

今年2月,在推出GPT-5.3-Codex(OpenAI迄今在网络安全推理方面能力最强的模型之一)后,OpenAI启动了名为“TrustedAccessforCyber”的试点计划。该计划采取邀请制,为参与机构提供访问权限,使其能够使用更具网络安全能力的模型,以支持合法的防御性研究工作。OpenAI同时向参与机构提供1000万美元的API额度用于相关研究。

过去一年,多名前政府官员和网络安全专家持续警告,先进AI模型在错误使用情况下,未来可能被用于自动化攻击关键基础设施,包括供水系统、电网以及金融系统等。

不过,一些安全专家认为,即便企业限制模型发布范围,也难以完全阻止相关能力扩散。SANSInstitute首席AI官RobT.Lee表示,AI模型已经具备自动枚举代码、发现旧代码库漏洞的能力,这类能力已经客观存在。

PaloAltoNetworks首席安全情报官WendiWhitmore也指出,即使部分公司暂缓发布相关模型,未来数周或数月内,类似能力仍可能出现在其他模型之中。

在业内看来,限制模型发布范围的做法,与网络安全领域长期采用的“负责任漏洞披露”机制类似,即在公开漏洞前先向受影响机构有限披露,以降低安全风险。

目前尚不清楚OpenAI未来是否会将这一新模型全面开放。Anthropic此前表示,其MythosPreview模型不会公开发布,但未来可能在具备更严格安全措施的情况下推出其他版本。与此同时,一些研究人员指出,当前公开可用的AI模型已经具备发现部分软件漏洞的能力,相关安全问题仍在持续受到关注。(AI普瑞斯编译)