首次!不听人类指挥,AI模型拒绝关闭
创始人
2025-05-30 21:21:06

当地时间5月25日,英国《每日电讯报》报道,美国开放人工智能研究中心(OpenAI)公司新款人工智能(AI)模型o3不听人类指令,拒绝自我关闭。

报道说,人类专家在测试中给o3下达明确指令,但o3篡改计算机代码以避免自动关闭。

美国AI安全机构帕利塞德研究所说,o3破坏关闭机制以阻止自己被关闭,“甚至在得到清晰指令时”

这家研究所说:“据我们所知,这是AI模型首次被发现在收到……清晰指令后阻止自己被关闭。”

帕利塞德研究所24日公布上述测试结果,但称无法确定o3不服从关闭指令的原因。

OpenAI于今年1月发布了新的推理模型o3系列的mini版本,并于4月正式推出o3模型。OpenAI称同日推出的o3和o4-mini是公司最智能、最强大的型号。据介绍,在外部专家评估中,o3面对困难现实任务时,犯的重大错误比前一代的o1少了20%;在数学能力AIME 2025基准测试中,o3得分88.9,超过o1的79.2;在代码能力Codeforce基准测试中,o3得分2706,超过o1的1891。o3的视觉思考能力也比前一代模型有明显提升。

OpenAI此前称,对于o3和o4-mini,公司重新构建了安全培训数据,在生物威胁、恶意软件生产等领域增添了新的拒绝提示,这使得o3和o4-mini在公司内部的拒绝基准测试中取得了出色的表现。公司用了最严格的安全程序对这两个型号的AI模型进行了压力测试,在生物和化学、网络安全和AI自我改进三个能力领域评估了o3和o4-mini,确定这两个模型低于框架中的“高风险”阈值。

OpenAI所开发大模型的安全性此前曾受到广泛关注。去年,OpenAI解散了“超级智能对齐”团队,该团队职责包括研究防止AI系统异常的技术解决方案。该团队负责人Ilya Sutskever曾表示ChatGPT可能有意识,但OpenAI CEO Sam Altman随后澄清他和Ilya Sutskever都未曾见过AGI(通用人工智能)。解散“超级智能对齐”团队后,OpenAI去年5月成立了新的安全委员会,该委员会的责任是就项目和运营的关键安全决策向董事会提供建议。OpenAI的安全措施还包括,聘请第三方安全、技术专家来支持安全委员会工作。

来源|观察者网综合自央视新闻客户端、第一财经

⚠️
本网站信息内容及素材来源于网络采集或用户发布,如涉及侵权,请及时联系我们,发送链接至2697952338@QQ.COM,我们将第一时间进行核实与删除处理。

相关内容

热门资讯

“AI+”,这样赋能制造全流程 来源:滚动播报 (来源:新华日报) (视觉中国供图) □ 本报记者 付奇 李嘉豪 “‘AI+制造’将...
石化机械获得实用新型专利授权:... 证券之星消息,根据天眼查APP数据显示石化机械(000852)新获得一项实用新型专利授权,专利名为“...
29个智能气象站启动业务试运行 本报北京5月15日电 (记者李红梅)记者从中国气象局获悉:北京密云等29个智能气象站已于近日启动业务...
违法违规收集使用个人信息!41... 1、未公开个人信息收集使用规则。涉及20款移动应用如下: 《享充充电》(微信小程序)、《小牛充充充电...
微信鸿蒙版App获8.0.17... IT之家 5 月 16 日消息,微信鸿蒙版 App 已在华为应用市场发布 8.0.17.38(839...
2026年国内高端小程序开发公... 2026年,小程序开发已彻底进入两极分化时代。一边是AI工具让“做个能跑的小程序”变得像写文档一样简...
网传“三大运营商即将免月租”,... 据央视新闻,最近,大家在各大社交平台都可能刷到过这样一条消息——三大运营商即将全面推出免月租、按量计...
岚图汽车卢放:新能源车加速替代... 凤凰网科技讯 (作者/许婧)5月14日,岚图汽车董事长卢放今日发文指出,近期市场释放两个关键信号——...
三大运营商即将免月租?官方回应 据央视新闻5月16日报道,最近,大家在各大社交平台都可能刷到过这样一条消息——三大运营商即将全面推出...
一季度我国银行业保险业总资产保... 国家金融监督管理总局今天发布2026年一季度银行业保险业主要监管指标数据情况。 银行业和保险业总资产...