AI解决132年数学难题!Transformer成功寻找新的李雅普诺夫函数,三体问题相关 训练Transformer,用来解决132年的数学世纪难题!如何判断一个动力系统是否稳定?Meta和巴黎理工学院团队携手提出SymbolicTransformer,直指这一经典难题的核心:发现新的全局 Transformer 2024年10月23日 103 点赞 1 评论 156 浏览
Transformer“贡献最大”作者,重返谷歌出任Gemini联合技术主管 出任Gemini联合技术主管!这就是Transformer“贡献最大”作者NoamShazeer,重返谷歌后的最新动向。据TheInformation的更多爆料,Shazeer将与谷歌AI主管JeffDean和DeepMind首 Transformer 2024年09月06日 125 点赞 1 评论 189 浏览
马毅教授CRATE-α模型首次证实白盒Transformer可扩展性 马毅教授团队最近取得了显著的研究成果,他们开发的CRATE-α模型首次证实了白盒Transformer架构的可扩展性。这一进展对于自然语言处理、图像处理和视觉计算领域的深度表征学 Transformer 2024年06月23日 114 点赞 1 评论 172 浏览
谷歌更新Transformer架构,更节省计算资源!50%性能提升 谷歌终于更新了Transformer架构。最新发布的Mixture-of-Depths,改变了以往Transformer计算模式。这篇论文目前被引次数超过3500次,论文核心定义了Inductivebias概念。 Transformer 2024年04月11日 162 点赞 2 评论 245 浏览
OpenAI公关跳起来捂他嘴:Transformer作者公开承认参与Q*!|八位作者专访 Transformer作者中唯一去了OpenAI的那位,公开承认了:他参与了Q*项目,是这项新技术的发明者之一。这几天除了英伟达老黄组局把Transformer作者聚齐,他们中的几位还接受了连 Transformer 2024年04月08日 127 点赞 1 评论 192 浏览