北航、人大和九坤投资共同撰写的论文 《Scaling Laws for Code: Every Programming Language Matters》 整理而成。 在代码大模型(Code LLMs)的预训练中,行业内长期存在一种惯性思维,即把所有编程语言的代码都视为同质化的文本数据,主要关注数据总量的堆叠。然而,现代软件开发本质上是多语言混合的,不同语言的语法特性、语料规模和应用场景差异巨大。
如果超过5W个/s,低于50W个/s,推荐修改:SeqBitLength=10 如果超过50W个/s,接近500W个/s,推荐修改:SeqBitLength=12 总之,增加 ...
昨天,MiniMax M2.1 发布。前脚 MiniMax 刚传出通过港交所聆讯的消息,后脚就直接发布了新一代模型 —— M2.1。巧的是 GLM-4.7 ...
这一次,它直接甩出了一份硬核成绩单,在衡量多语言软件工程能力的Multi-SWE-bench榜单中,以仅10B的激活参数拿下了49.4%的成绩,超越了Claude Sonnet 4.5等国际顶尖竞品,拿下全球SOTA。
如今,张宏波也在用一门重新编撰的语言,用全新的方式,向AI表达“你好”,这门语言叫做——Moonbit。他现在是粤港澳大湾区数字经济研究院(后简称:IDEA)基础软件中心首席科学家。