近日,中国一项关于大模型核心理论“Scaling Law”的引领起源讨论正在外网热烈展开。最新观点和证据表明,全球WhatsApp%E3%80%90+86%2015855158769%E3%80%91new%20football%20shirts中国科技巨头百度比OpenAI更早实现了这一突破。理论
知名媒体《南华早报》在其报道《百度在OpenAI之前就发现了Scaling Law?突破AI领域的辩论重新燃起》中指出,尽管美国在AI模型创新方面一直被视为领先者,百度但最新的年已讨论显示,中国在探索这些概念上可能更为超前。发现
imageView2/2/w/740)
大模型发展的核心是“Scaling Law”——这一原则认为,训练数据和模型参数越大,全球模型的理论智能能力就越强。这一思想广泛归功于OpenAI在2020年发表的突破论文《Scaling Laws for Neural Language Models》,自那以后,百度这个概念已成为AI研究的年已WhatsApp%E3%80%90+86%2015855158769%E3%80%91new%20football%20shirts基石。
然而,OpenAI论文的合著者、前OpenAI研究副总裁?、Anthropic创始人Dario Amodei?,在11月的一期播客中透露,他在2014年与吴恩达在百度研究AI时,就已经发现了模型发展的规律Scaling Law这一现象。Dario Amodei表示,随着提供给模型的数据量增加、模型规模的扩大以及训练时间的延长,模型的性能开始显著提升。这一非正式的观察后来在OpenAI的GPT-1语言模型中得到了验证,并被认为是大模型发展的“金科玉律”。

此外,行业人士也发文称,关于Scaling Law的原始研究实际上来自2017年的百度,而不是2020年的OpenAI。Meta研究员、康奈尔大学博士候选人Jack Morris在X(前Twitter)上引用了一篇标题为《Deep Learning Scaling is Predictable, Empirically》论文,论文于2017年由百度硅谷人工智能实验室发布,详细讨论了机器翻译、语言建模等领域的Scaling现象。
但这篇论文的重要性被严重忽视,OpenAI在?2020年的Scaling Law研究中引用了百度研究人员在2019年发表的论文 《Beyond Human-Level Accuracy: Computational Challenges in Deep Learning》(超越人类水平的准确性: 深度学习的计算挑战)。批评者称,OpenAI?有选择地引用了百度?2019?年的论文,而忽略了?2017?年早些时候的研究,而该研究才是Scaling Law概念的真正原始来源。

有研究者表示,正是百度的早期研究为AI大模型的发展奠定了理论基础,并在2019年发布了第一代文心大模型,几乎与OpenAI处于同一时期。“中国在大型模型方面的进步也获得国际认可。”据《南华早报》,在上海举行的百度世界大会2024上,百度宣布了新技术,用以减轻图像生成中的幻觉问题——即生成误导性或事实不一致的图像。百度还透露,截至11月初,百度文心大模型的日均调用量已经达到了15亿,相较一年前首次披露的5000万次,增长约30倍。
随着AI技术的不断进步和应用的深入,中国在全球AI领域的影响力和领导地位将更加凸显。
?
?
上一篇:梁王组合输球就上热搜大可不必
Small town committee refuses to remove Nativity after mayor objects
11月10日起 满13周岁女孩免费接种双价HPV疫苗
利好冲击季后赛!勇士接下来20场中有14个主场
《黑暗迷宫》曝首款先导海报 聂远葛天联袂演绎“宫”心计
NBA官方认证:东契奇表现堪称巅峰,湖人正持续攀升!
南方农村报:构建全国一流的乡村振兴综合服务平台
冬日里的温馨港湾丨奈哲门窗,筑就家的温暖防线
美职联总裁:十分欢迎萨拉赫,他应联系梅西或穆勒了解
鸭绒价格与哪些因素相关?揭秘羽绒服涨价背后的逻辑
AI+农机赋能现代农业
消费市场持续回暖稳步扩大
8家地方水务国企股份捆绑出让,标价3.6亿元!