Scaling Law触礁「数据墙」?Epoch AI发文预测LLM到2028年耗尽所有文本数据 【新智元导读】训练数据的数量和质量,对LLM性能的重要性已经是不言自明的事实。EpochAI近期的一篇论文却给正在疯狂扩展的AI模型们泼了冷水,他们预测,互联网上可用的人类 ScalingLaw 2024年06月17日 129 点赞 110 评论 84 浏览