Loading...

OpenAI内斗第二弹,Ilya亲信、超级对齐团队2人惨遭开除,被批泄密

资讯7个月前发布 hiailand
1.1K 0 0

OpenAI内斗第二弹,Ilya亲信、超级对齐团队2人惨遭开除,被批泄密

【导读】OpenAI内斗「第二弹」来了?外媒惊曝,OpenAI超级对齐团队关键人物忽然被解雇了,理由是有泄密行为。而且,此人还是Ilya的重要盟友和亲信。而身处风暴中心的Ilya,依然未曾露面……

惊天大瓜!

据外媒报道,OpenAI超级对齐团队的2名研究员,因泄露「机密」被正式开除!

而这也是今年3月Sam Altman重掌董事会席位后,OpenAI首次对外公开的人事变动。

OpenAI内斗第二弹,Ilya亲信、超级对齐团队2人惨遭开除,被批泄密

被解雇的研究员之一Leopold Aschenbrenner,曾在新成立的超级对齐团队工作。

同时,他也是OpenAI首席科学家Ilya Sutskever的支持者,OpenAI内斗风波后,Ilya至今尚未在公开场合露面。

另一位被解雇的员工Pavel Izmailov,曾负责推理方面的研究,在安全团队亦有贡献。

OpenAI内斗第二弹,Ilya亲信、超级对齐团队2人惨遭开除,被批泄密

Leopold Aschenbrenner(左), Pavel Izmailov(右)

值得一提的是,被解雇的这俩人,都是去年OpenAI超级对齐团队新论文的作者。

OpenAI内斗第二弹,Ilya亲信、超级对齐团队2人惨遭开除,被批泄密

不过,目前尚不清楚,两位被解雇员工具体泄露了哪些信息。

团队关键人物开除为哪般

OpenAI的发展情况,仍然是稳中向好,势如破竹,最近一次员工股票出售中,它的估值甚至一度高达860亿美元。

而超级对齐团队(Superalignment),是OpenAI内部一个颇具话题性的部门。

AI发展到最后,如果成为超级智能,好处是或许能帮我们解决核聚变问题,甚至开拓其他星球,但反过来,这么厉害的它,开始危害人类了怎么办?

为此,在去年夏天,Ilya Sutskever成立了这个团队,来研发控制和指导超级智能的技术。

OpenAI内斗第二弹,Ilya亲信、超级对齐团队2人惨遭开除,被批泄密

Aschenbrenner,恰恰就是超级智能对齐团队的关键人物之一。

一个争议就是:这个团队真的有存在的必要吗?

OpenAI内部,员工对此意见不一。

此前的内斗风波,跟这个理念的争议也脱不了干系。

作为OpenAI联合创始人、重大技术突破负责人,Ilya曾与其他董事会成员一起,决定解雇Sam Altman,原因是他缺乏坦诚。

而Altman宫斗归来、重返CEO之职后,Ilya离开了董事会,从此似乎销声匿迹,引来众多网友的猜疑。

OpenAI内斗第二弹,Ilya亲信、超级对齐团队2人惨遭开除,被批泄密

又是「有效利他主义」

耐人寻味的是,事件中的众多人物,都有「有效利他主义」(Effective Altruism),有着千丝万缕的关联。

对齐团队关键人物Aschenbrenner,便是有效利他主义运动的一员。

该运动强调,我们应该优先解决AI潜在的风险,而非追求短期的利润或生产力增长。

OpenAI内斗第二弹,Ilya亲信、超级对齐团队2人惨遭开除,被批泄密

说到这里,就不能不提大名鼎鼎的币圈大佬、如今沦为阶下囚的FTX创始人Sam Bankman-Fried了,他也是有效利他主义的忠实拥趸之一。

OpenAI内斗第二弹,Ilya亲信、超级对齐团队2人惨遭开除,被批泄密

19岁时毕业于哥大的Aschenbrenner,曾在SBF创建的慈善基金Future Fund工作,该基金致力于资助能够「改善人类长远前景」的项目。

一年前,Aschenbrenner加入了OpenAI。

而把Altman踢出局的其他董事会成员,也都被发现和有效利他主义有干系。

OpenAI内斗第二弹,Ilya亲信、超级对齐团队2人惨遭开除,被批泄密

比如,Tasha McCauley是Effective Ventures的董事会成员,后者即是有效利他中心的母组织。

而Helen Toner曾在专注于有效利他的Open Philanthropy项目工作。

去年11月Altman重任CEO时,二人也都来开了董事会。

这样看来,此次Aschenbrenner被开除究竟是因为泄密,还是因为其他原因,就值得探究了。

总之,Sam Altman看来是跟有效利他主义主义的这帮人杠上了——毕竟他们的理念,实在是Altman理想中AGI(甚至ASI)的最大绊脚石。

Leopold Aschenbrenner

OpenAI内斗第二弹,Ilya亲信、超级对齐团队2人惨遭开除,被批泄密

Leopold Aschenbrenner还在大三时,便入选了Phi Beta Kappa学会,并被授予John Jay学者称号。

19岁时,更是以最优等成绩(Summa cum laude)从哥伦比亚大学顺利毕业。

期间,他不仅获得了对学术成就授以最高认可的Albert Asher Green奖,并且凭借着「Aversion to Change and the End of (Exponential) Growth」一文荣获了经济学最佳毕业论文Romine奖。

此外,他还曾担任政治学的Robert Y. Shapiro教授和经济学的Joseph E. Stiglitz教授的研究助理。

OpenAI内斗第二弹,Ilya亲信、超级对齐团队2人惨遭开除,被批泄密

Leopold Aschenbrenner来自德国,现居风景优美的加利福尼亚旧金山,志向是为后代保障自由的福祉。

他的兴趣相当广泛,从第一修正案法律到德国历史,再到拓扑学,以及人工智能。目前的研究专注于实现从弱到强的AI泛化。

OpenAI内斗第二弹,Ilya亲信、超级对齐团队2人惨遭开除,被批泄密

Pavel Izmailov

OpenAI内斗第二弹,Ilya亲信、超级对齐团队2人惨遭开除,被批泄密

Pavel Izmailov在莫斯科国立大学获得数学与计算机科学学士学位,在康奈尔大学获得运筹学硕士学位,并在纽约大学获得计算机科学博士学位。

OpenAI内斗第二弹,Ilya亲信、超级对齐团队2人惨遭开除,被批泄密

他的研究兴趣广泛,包括机器学习 核心领域内的多个主题,不过主要还是致力于深入理解深度神经网络是如何运作的。

  • 提升AI的推理和问题解决能力
  • 深度学习模型的可解释性,涵盖大语言模型和计算机视觉模型
  • 利用AI进行科学发现
  • 大规模模型的分布外泛化和鲁棒性
  • 技术AI对齐
  • 概率深度学习、不确定性估计和贝叶斯方法

此外,他所在团队关于贝叶斯模型选择方面的工作,更是在2022年的ICML上获得了杰出论文奖。

OpenAI内斗第二弹,Ilya亲信、超级对齐团队2人惨遭开除,被批泄密

加入OpenAI之前,他曾在亚马逊、谷歌等大厂实习

从2025年秋季开始,Izmailov将加入纽约大学,同时担任Tandon CSE系助理教授和Courant CS系客座教授,并加入NYU CILVR小组。

用GPT-2监督GPT-4

在这项研究中,OpenAI团队提出了一个创新性模型对齐方式——用小模型监督大模型

Leopold Aschenbrenner对此解释道,直觉告诉我们,超人类人工智能系统应该能「感知」自己是否在安全地操作。

但是,人类能否仅通过「弱监督」就从强大的模型中提取出这些概念呢?

OpenAI内斗第二弹,Ilya亲信、超级对齐团队2人惨遭开除,被批泄密

OpenAI内斗第二弹,Ilya亲信、超级对齐团队2人惨遭开除,被批泄密

在未来,AI系统可以处理极其复杂的任务,比如生成一百万行代码。

但是人类需要为其行为设置一些限制,不如「不要撒谎」或「不要逃离服务器」。

而目前,大模型这个黑盒,人类根本无法理解它们的行为,那我们如何实现这些限制?

通常情况下,我们会用人类的标注来训练AI系统。

但是,相比于那些比我们聪明得多的AI系统,人类只能算是「弱监督」。

也就是说,在复杂的问题上,人类提供的只是不完整或有缺陷的标注。

好在,强大的模型已经能够明显地,表示出像「这个行动是否危险」这样的概念。

如此一来,人类就可以要求它说出自己知道的内容,包括那些我们无法直接监督的复杂情况。

OpenAI内斗第二弹,Ilya亲信、超级对齐团队2人惨遭开除,被批泄密

为此,团队设计了一个巧妙的实验——当我们用一个小模型来监督大模型时,会发生什么?

强大的模型是否会模仿比它弱的监督者,甚至包括它的错误呢?还是说,它能够泛化到更深层次的任务或概念?

结果,他们惊喜地发现,果然可以利用深度学习的出色泛化能力来获得帮助。

像GPT-2这种数到十都不会的弱鸡模型,都可以来监督能参加高考的GPT-4,让它恢复到接近完美标注的80%性能。

OpenAI内斗第二弹,Ilya亲信、超级对齐团队2人惨遭开除,被批泄密

OpenAI内斗第二弹,Ilya亲信、超级对齐团队2人惨遭开除,被批泄密

不过,目前这种方法只在某些情况下有效,所以如果我们只是简单地应用当前对齐技术(比如RLHF)的话,在超人类模型的扩展上可能遇到困难。

OpenAI内斗第二弹,Ilya亲信、超级对齐团队2人惨遭开除,被批泄密

但作者认为,超越弱监督者的泛化是一个普遍现象,而人类可以通过简单的方法大幅提高泛化能力。

针对这项研究,未来探索的方向可能包括:

  • 寻找更好的方法;
  • 加深科学理解:我们何时以及为什么能看到良好的泛化?
  • 采用类似的设置:实验设置与未来超级对齐问题之间还存在重要的不同——我们能解决这些问题吗?

这项研究让作者最兴奋一点是,他们可以在对齐未来超人类模型的核心挑战上,取得迭代的实证进展。

很多以前的对齐工作要么陷入理论,要么虽然是实证的,但并未直接面对核心挑战。

比如,在对齐领域有一个长期的观点是「引导」。(不是直接对齐一个非常聪明的模型,而是首先对齐一个稍微聪明的模型,然后用它来对齐一个中等聪明的模型,依此类推)

现在,虽然还远远不够,但OpenAI研究人员已经可以直接进行测试了。

OpenAI内斗第二弹,Ilya亲信、超级对齐团队2人惨遭开除,被批泄密

参考资料:

https://www.theinformation.com/articles/openai-researchers-including-ally-of-sutskever-fired-for-alleged-leaking?rc=epv9gi

本文来自微信公众号“新智元”(ID:AI_era),作者:新智元

© 版权声明

相关文章

暂无评论

暂无评论...