来源:财联社
据媒体周五报道 ,在两位关键领导人离职后,OpenAI 专注于研究人工智能(AI)生存危险的团队已经全部辞职或被其他小组吸收。
在接受采访时,OpenAI 公司证实,该公司不再将所谓的“超级对齐”团队作为一个独立的实体 ,而是将该团队更深入地整合到其研究工作中,以帮助公司实现其安全目标 。
在去年 7 月份,OpenAI 宣布成立一个新的研究团队“超级对齐” ,要用 AI 监督 AI 的方式,解决超智能“AI 对齐 ”问题。“AI 对齐”的意思是,要求 AI 系统的目标要和人类的价值观与利益相一致。公司创始人之一伊利亚·苏茨克沃被任命为团队共同负责人。
而现在 AI 风险团队解散是公司内部最近出现动荡的又一证据 ,也再次引发了人们对该公司在开发 AI 产品时如何平衡速度与安全的质疑 。OpenAI 章程规定,必须安全地开发通用人工智能(AGI),即可以与人类匹敌或超越人类的技术。
上个月 ,超级对齐团队两名研究人员因泄露公司机密而被解雇,另一名成员也在 2 月离开。到了本周二,伊利亚在社交平台 X 上宣布 ,他将在近十年后离开公司,相信在首席执行官奥尔特曼等人的领导下,能够打造出既安全又有益的通用人工智能 。伊利亚此前与奥尔特曼就 AI 的发展速度发生过冲突。
随后,超级对齐团队另一位负责人 Jan Leike 也宣布离职。不过有知情人士声称 ,对 Leike 来说,伊利亚的退出导致分歧严重到了无法调和的地步 。
Leike 周五发布声明称,超级对齐团队一直在努力争取资源。“在过去的几个月里 ,我的团队一直在逆风航行。有时候我们在计算资源上挣扎,而且越来越难以完成这项关键的研究 。”
他还表示,他的离职是因为他与 OpenAI 在公司的“核心优先事项 ”上存在一系列分歧 ,他认为,公司不够关注 AI 相关的安全措施。
OpenAI 在周二宣布,公司联合创始人 JohnSchulman 将成为未来对齐工作的科学负责人。另外 ,OpenAI 在一篇博客文章中表示,已任命研究总监 Jakub Pachocki 接替伊利亚担任首席科学家 。
还木有评论哦,快来抢沙发吧~