OpenAI 成立了一个新的安全团队

新的安全团队中有三位来自 OpenAI 的董事会成员,这样的安排真的能确保安全性吗?

OpenAI 正在组建一个新的安全团队,这个小组由 CEO Sam Altman、还有两名董事会成员 Adam D’Angelo 和 Nicole Seligman 一同带领。这个委员会主要负责针对 “涉及到 OpenAi 项目及运作中的关键性安保决策”,提供专业意见。这也是最近几个月来,一些核心人工智能研究人员因担忧而选择离开的原因之一。

新成立的小组首先要完成的是,“评估并进一步完善现有流程及保护措施”。接着,他们需要把调查结果呈交给包含三个小组领导人在内的大股东会议,再由大股东会议决定如何落实这些建议方案.

此举正值联合创始人兼首席科学家 Ilya Sutskever 离任之后。他曾支持去年的一次尝试罢免 CEO Sam Altman’s 行动。此外,他还是 Superalignment 小组的重要领袖之一,这个小组选立目标是为了能够有效管理那些远超我们智慧水平的人工智能系统.

此外, Scarlett Johannson 曾告知过 OPEN Ai 不要擅自使用她声音—尽管如此,她仍然怀疑他们可能已经这么做了。而就在Sutskever 辞退没多久, 同样身为 Superalignement 小组成员之一 Jan Leike,也通过社交平台X发帖表示自己即将离开OPEN Ai ,因为他认为公司目前对于产品光鲜度重视程度超过基本安保需求。据Wired报道,目前Superalignement 小组合并解散,而政策分析师Gretchen Krueger 则紧随其后,同样基于类似理由递交辞呈.

与此同时,公司方面宣称正在进行某种全新模型测试,但尚未确定是否就是传闻中的 GPT-5 .

另外,本月初发布的新版本Chatgpt 配备了一款叫Sky的新声线,据说听起来非常像 Scarlett Johannson (CEO altmen 自己也承认)。不过 Johanson 明确表示拒绝参与任何形式录制工作,而altmen则澄清称公司无意冒犯,只是在最终敲定演员名单之前主动联络Johannson解释缘故。然而整件事情依旧令不少爱好者与评论人士深感困惑甚至质疑起企业伦理标准…

除上述三名高层之外,小组三员还包括预案总监Aleksander Madry 、 安全事务主管Lilian Weng 、 对齐技术专家John Schulmann 、 保密防护官Matt knight 与 首席科研Jakub Pachocki 。 然而鉴于其中二人为大股东代表身份,加之Sam本人直接挂帅指挥,有观点认为此次改革恐怕难以彻底消弭先前遗留隐患…

发表评论

邮箱地址不会被公开。 必填项已用*标注