靠谱客(kaopuke.com)6月14日消息:Open AI近期的内部矛盾和人员变动引起了业界的广泛关注。这场被称为"宫斗"的事件主要围绕两个核心议题:AI模型的安全性和AI技术的发展速度。
5.15Ilya离职:Ilya Sutskever是Open AI的联合创始人之一,他主张加大对模型安全性的投入。在GPT-4o发布会后,Ilya宣布离开Open AI,场面看似和气。
Jan Leike的离职与指控:作为超级对齐团队的负责人,Jan Leike在离职时公开了对Open AI的不满,认为公司对模型对齐团队不公平,计算资源不足,使得关键研究工作变得困难。
5.18Sam 发推文承认,公司离职文件中确实有一项关于“潜在股权取消”的条款,但是他们从来没有真的启用过这个条款收回过任何人的股权,同时他不知道协议中有这条内容,公司也正在修改这项条款。
Sam Altman和Greg Brockman的立场:他们主张优先发展模型效果,对Jan Leike的离职做出了回应,表示模型的安全和能力发展同等重要,并已采取措施确保模型安全。
离职协议争议:Sigal Samuel的爆料文章指出,Open AI要求离职员工签署含有不贬损条款的离职协议,否则可能失去股权。Sam Altman随后承认存在这一条款,但表示公司从未启用过,且正在修改。
社区观点:一些人如Daniel Jeffries认为超级对齐团队的离开并非因为AI的安全性问题,而是他们认为短期内不会出现超级先进的AI。杨立坤则认为过分担心AI安全问题是杞人忧天,AI的发展需要平衡效率和安全性。
Sam Altman的历史立场:有趣的是,Sam在2014年还写过关于创业公司股权分配的博客,提出保障员工权益的建议。如今作为Open AI的领导者,他的一些做法与当年的观点形成了鲜明对比。
很多人认为AI目前仍处于早期阶段,需要更多关注如何推动技术发展,而不是过分强调安全性。就像飞机的发展一样,安全性是随着技术进步逐步提高的,而不是一开始就有完美的解决方案。
总的来说,这次Open AI的内部矛盾反映了AI发展过程中的两大主题:安全与效率。如何在保障安全的前提下推动AI技术的发展,是整个行业都需要思考的问题。随着AI技术的不断进步,如何平衡这两者之间的关系,将是一个长期而复杂的议题。
(举报)
发表评论取消回复