百度或比OpenAI更早发现Scaling Law
三言科技12月31日消息,据环球网报道,外媒报道称百度比OpenAI更早发现Scaling Law。
据悉,“Scaling Law”原则认为,训练数据和模型参数越大,模型智能能力就越强。该思想一直被认为是出自OpenAI在2020年发表的论文《Scaling Laws for Neural Language Models》中。
不过,OpenAI论文合著者前OpenAI研究副总裁、Anthropic创始人Dario Amodei在一期播客中称,他在2014年与吴恩达在百度研究AI时,就已经发现了模型发展的规律Scaling Law这一现象。
也有行业人士发文称,关于Scaling Law原始研究实际上来自2017年的百度公司。
相关资讯
- ▣ Scaling Law百度最早提出!OpenAI/Claude受它启发,致谢中有Ilya
- ▣ 张俊林:OpenAI o1的价值意义及强化学习的Scaling Law
- ▣ 智源发布十大预测:Scaling Law “性价比”将持续下降
- ▣ OpenAI开启推理算力新Scaling Law,AI PC和CPU的机会来了
- ▣ OpenAI押注的「1X」训出专用世界模型,首证机器人Scaling Law
- ▣ 百度CTO海峰: 规模定律(Scaling Law)仍然有效|AI领先者心声・2025
- ▣ 拯救OpenAI 1500亿估值,就靠o1了?全新Scaling Law终结奥特曼「非营利游戏」
- ▣ Scaling Law“暴力美学”真的失效了吗?
- ▣ Scaling Law或将终结?哈佛MIT预警:低精度量化已无路可走,重磅研究掀翻AI圈
- ▣ Scaling Law失效,AI泡沫底层逻辑崩了?
- ▣ 国产算力格局重塑,Scaling Law再引发讨论 | 投研报告
- ▣ 微软CTO:AI大模型的“Scaling Law”还能走多远?
- ▣ 媲美GPT-4o,多模态模型Molmo挑战Scaling law
- ▣ Scaling Law不适用于投资行业?朱啸虎在2024WAIC再度“语出惊人”
- ▣ 预训练的 Scaling Law 正在走入死胡同,o1 让更多创业公司重新复活
- ▣ 斯坦福伯克利重磅发现DNA Scaling Law,Evo荣登Science封面!AI设计DNA/RNA/蛋白质再突破
- ▣ 小模型路线图来了!苹果弄清楚了“蒸馏Scaling Law“
- ▣ AI 3D生成天花板再拉升!清华团队炼成3D Scaling Law
- ▣ Hinton揭秘Ilya成长历程:Scaling Law是他学生时代就有的直觉
- ▣ 传神语联何恩培:依赖Scaling Law的大模型路线已遇瓶颈
- ▣ 阶跃星辰CEO姜大昕:Scaling Law中短期内依然处于陡峭曲线
- ▣ 单靠推理Scaling Law无法成就o1!无限推理token,GPT-4o依然完败
- 武汉指最早12/8发病 专家:爆发时间或更早「9月出现疑例」
- ▣ 非共识问题成为WAIC热议焦点,大模型Scaling Law是否继续有效?
- ▣ 对话月之暗面杨植麟:对Scaling Law乐观,预训练还有提升空间
- ▣ 续命Scaling Law?世界模型GPT-4o让智能体超级规划,OSU华人一作
- ▣ 朱啸虎:我不相信Scaling Law,大模型技术迭代放缓利好应用公司
- ▣ Scaling Law递减,堆砌数据、算力拼AI模型已行不通?大厂正在找出路
- ▣ 不同数据集有不同的Scaling law?而你可用一个压缩算法来预测它