PG电子,PG电子官网,PG电子注册,PG电子送彩金,PG电子爆分平台,pg电子app,pg电子下载,pg娱乐此前有报道称,LLM编程现在已超越人类专家,但本次测试结果表明并非如此。
表现最佳的模型,在中等难度题上的一次通过率仅53%,难题通过率更是为0。
即使是最好的模型o4-mini-high,一旦工具调用被屏蔽,Elo也只有2100,远低于线传奇线。
击败这个基准就像AlphaGo击败李世石一样。我们还没有达到那个水平——甚至对于有明确可验证结果的问题也是如此。
该基准由一众奥林匹克获奖者构建,在比赛结束后立即收集每道Codeforces、ICPC和IOI题目,在互联网上出现正确答案之前捕获每个问题。
测试收录了584道顶流竞赛题,团队手动对每个问题进行标注,标注内容包括解决每个任务所需的关键技能,并根据问题的认知焦点将题目分为知识密集型逻辑密集型观察密集型三大类。
例如,所有Codeforces问题的评分在2000分以上的都会被归入困难等级。
团队会基于题目背后的算法思想进行分类,记录Codeforces官方难度评级(对应Elo分数下50%的成功率),同时梳理关键观察点、常见陷阱及边缘案例,为评估提供多维度参考。
在测试过程中,团队对模型和人类专家提交的每个解决方案,记录其判定结果(如通过、答案错误、超时等),并标注根本原因(思路层面错误或实现层面错误)。
结合题目分类与提交结果,对比人类专家的解题模式,分析模型在不同难度(简单 / 中等 / 困难)、题型(知识密集型 / 逻辑密集型 / 观察密集型)下的表现,定位模型在算法推理、样例利用及边缘案例处理等方面的短板。
团队一共测试了22款大模型,并根据表现给出了完整榜单,大家可以自行查看任何一个模型在每一个问题上给出的解决方法。
模型在知识密集型和逻辑密集型问题上表现更好,擅长 “死记硬背”(如数据结构模板),但在观察密集型问题或案例工作中表现较差,搞不定 “灵光一现” 的贪心、博弈题。
与人类相比,o3-mini 等模型在精确、无错误的实现方面展现出更高级的技能,但在算法设计方面逊色。
LLMs擅长实现类问题,但在需要精细算法推理和复杂案例分析的题目上表现欠佳,还常给出看似正确实则错误的解释。
LLMs经常无法正确通过题目提供的示例输入,显示其对给定信息的利用不充分。
LLMs很大程度上依赖工具增强(如终端访问、网络搜索),而非自身推理能力。
团队还增加了尝试次数(pass@k),并发现这样可以显著提升LLMs在中简单题的表现,但对难题依旧无力。
比如,通过增加o3-high模型的尝试次数来测试其性能,但无论尝试多少次,它仍然无法解决任何一个困难分区的题目。
启用推理功能后,LLMs在组合数学等知识密集型题目中提升明显,但在观察密集型题目中提升有限。
研究员还透露,每个季度,团队都将发布一个完全全新的评估集,保证数据的时效性。
LiveCodeBench Pro团队由一众奥林匹克竞赛得奖者组成,其中超半数成员为华人。
该项目的主要负责人郑子涵毕业于成都外国语学校,现于纽约大学本科在读,曾代表纽约大学参加ICPC世界总决赛,获得第二名。
他先后在腾讯、英伟达担任研发实习生,今年2月份以实习生的身份进入OpenAI。
另一位负责人柴文浩于2023年在浙江大学完成本科学业,硕士就读于华盛顿大学,今年9月将前往普林斯顿大学计算机科学专业就读博士。
他曾于Pika Labs和微软亚洲研究院实习,先前研究主要涉及视频理解和生成模型。
他领导开发了MovieChat,这是第一个用于长视频理解的超大多模态模型。
该项目的其他参与者分别来自加州大学、普林斯顿大学等,这是一支非常年轻的队伍。