EN
yaxindai.cn

17.c起草网登录入同一天开源新模型,一推理一编程,MiniMax和月之暗面开卷了

如此强大的 MiniMax-M1 有哪些亮点功能呢?首先,它支持UI 组件聚焦(Spotlight),只需输入提示词,立即就可以构建一个具有基于画布的动画粒子背景的 HTML 页面。 其次,MiniMax-M1 支持交互式应用程序。比如要求它构建一个打字速度测试,很快就生成一个干净、实用的 Web 应用程序,可以实时跟踪 WPM(每分钟字数)。不需要插件,也不需要设置。 此外,MiniMax-M1 的可视化效果很强。比如输入提示词:创建具有基于画布的动画粒子背景的 HTML 页面,颗粒应平稳移动并在靠近时连接,在画布上添加中心标题文本。(Create an HTML page with a canvas-based animated particle background. The particles should move smoothly and connect when close. Add a central heading text over the canvas.) 最后,MiniMax-M1 可以玩游戏。比如输入提示词:创建迷宫生成器和寻路可视化工具,随机生成一个迷宫,并可视化 A * 算法逐步解决它。使用画布和动画,使其具有视觉吸引力。(Create a maze generator and pathfinding visualizer. Randomly generate a maze and visualize A* algorithm solving it step by step. Use canvas and animations. Make it visually appealing.) 目前,Kimi-Dev-72B 已向社区开放,以供进一步研发,主要资源包括了模型权重、源代码和技术报告(即将发布)。月之暗面希望开发者和组织能够探索、集成和扩展该模型的应用。 MiniMax-M1 是全球首款开源权重的大规模混合注意力推理模型,由混合专家(MoE)架构与闪电注意力机制共同驱动。该模型基于此前的 MiniMax-Text-01 模型开发而来,总参数量为 456 B,每个 token 激活 45.9 B 参数。 此外,MiniMax-M1 中采用的闪电注意力机制实现了测试时计算成本的高效扩展 —— 例如,在生成长度为 10 万 token 时,M1 所消耗的浮点运算次数(FLOPs)仅为 DeepSeek R1 的 25%。这些特性使得 M1 尤其适用于需要处理长输入并进行深度思考的复杂任务。 MiniMax-M1 在从传统数学推理到基于沙盒的真实世界软件工程环境等各种问题上,均采用了大规模强化学习(RL)进行训练。MiniMax 为 M1 开发了一个高效的强化学习扩展框架,重点突出以下两个方面: 1. 提出了一种名为 CISPO 的新颖算法,该算法通过裁剪重要性采样权重而非 token 更新来优化模型。 在 AIME 的实验中,研究团队发现这比包括字节近期提出的 DAPO 等强化学习算法收敛性能快了一倍,显著的优于 DeepSeek 早期使用的 GRPO。 整个强化学习阶段只用到512 块 H800 三周的时间,租赁成本只有53.47 万美金,这比一开始的预期少了一个数量级。MiniMax 训练了两个版本的 MiniMax-M1 模型,分别具有 40k 和 80k 的思考预算。 在标准基准测试上的实验表明,该模型在性能上超越了其他强大的开源权重模型,如原始的 DeepSeek-R1 和 Qwen3-235B,尤其在复杂的软件工程、工具使用和长上下文任务上表现突出。 对领先的商业模型与开源模型在竞赛级数学、编程、软件工程、智能体工具使用以及长上下文理解等任务中的基准性能进行对比评估。其中,MiniMax-M1 结果使用其 MiniMax-M1-80k 模型。 MiniMax 在 17 个业内主流评测集上对 M1 模型进行了全面评估,结果显示,M1 在软件工程、长上下文处理和工具使用等面向生产力的复杂场景中,拥有显著优势。 MiniMax-M1-40k 和 MiniMax-M1-80k 在 SWE-bench 验证基准上分别取得 55.6% 和 56.0% 的优异成绩,这一成绩略逊于 DeepSeek-R1-0528 的 57.6%,但显著超越其他开源权重模型。依托其百万级上下文窗口,M1 系列在长上下文理解任务中表现卓越,不仅全面超越所有开源权重模型,甚至超越 OpenAI o3 和 Claude 4 Opus,全球排名第二,仅以微弱差距落后于 Gemini 2.5 Pro。在代理工具使用场景(TAU-bench)中,MiniMax-M1-40k 同样领跑所有开源权重模型,并战胜 Gemini-2.5 Pro。 Kimi-Dev-72B 在 SWE-bench Verified 上取得了 60.4% 的成绩,在开源模型中创下了新的 SOTA 纪录。Kimi-Dev-72B 通过大规模强化学习进行优化。它能够自主在 Docker 中修补真实代码仓库,并且只有在整个测试套件通过的情况下才会获得奖励。这确保了其提供的解决方案是正确且稳健的,符合现实世界中的开发标准。Kimi-Dev-72B 可在 Hugging Face 和 GitHub 上下载和部署。 一个成功的漏洞修复补丁,应该能够通过准确反映该漏洞的单元测试。同时,一个成功的测试用例在复现漏洞时应能触发断言错误,并且在正确的补丁应用到代码库后能够通过测试。这就形成了 BugFixer 和 TestWriter 的互补角色:BugFixer 负责修复问题,TestWriter 负责验证和复现问题。一个足够强大的编程 LLM 应当在这两方面都表现出色。 BugFixer 和 TestWriter 遵循着相似的流程:它们都需要先找到正确的待编辑文件,然后执行相应的代码更新 —— 无论是修正脆弱的代码实现(BugFixer 的任务),还是插入单元测试函数(TestWriter 的任务)。 因此,为了同时支持这两个角色,Kimi-Dev-72B 采用了一个统一的极简框架,该框架仅包含两个阶段:(1) 文件定位 (File Localization) 和 (2) 代码编辑 (Code Edits)。BugFixer 与 TestWriter 的这种协作机制的设计,为 Kimi-Dev-72B 的整体架构奠定了基础 为了提升 Kimi-Dev-72B 作为 BugFixer 和 TestWriter 的基础能力,使用了约 1500 亿个 token 的高质量真实世界数据对其进行了中期训练。以 Qwen 2.5-72B 作为基础模型,收集了数百万个 GitHub 上的问题报告 (issues) 和拉取请求中的代码提交记录 (PR commits) 作为中期训练数据集。 该数据配方经过精心设计,旨在让 Kimi-Dev-72B 学习人类开发者如何根据 GitHub 问题进行推理、构建代码修复方案以及编写单元测试。此外还进行了严格的数据去污染处理,以排除任何来自 SWE-bench Verified 测试集的代码仓库。 通过适当的中期训练和监督微调 (SFT),Kimi-Dev-72B 在文件定位 (File Localization) 方面已取得了优异的性能。因此,强化学习 (RL) 阶段专注于提升其代码编辑 (Code Edits) 的能力。 月之暗面采用了一种在 Kimi k1.5 中描述过的策略优化方法,该方法已在推理任务中展现出卓越成果。针对 SWE-bench Verified 测试基准,重点介绍以下三项关键设计: 仅基于结果的奖励机制(Outcome-based Reward Only)。只采用 Docker 最终执行结果(0 或 1)作为奖励信号,在训练过程中不使用任何基于格式或过程的奖励。这意味着,只有当模型生成的补丁能够使所有测试用例通过时,才会获得奖励,从而确保模型关注于实际有效的代码修复结果。高效的提示集(Efficient Prompt Set)。过滤掉了模型在多样本评估中成功率为零的提示(即过于困难的任务),从而能够更有效地利用大批量数据进行训练。同时应用了课程学习策略,即逐步引入新提示,渐进式地增加任务难度。正面范例强化(Positive Example Reinforcement)。在训练的最后阶段,将先前迭代中近期成功的样本重新加入到当前的训练批次中。这有助于模型巩固成功的模式并提升性能。 最后,月之暗面表示,他们正在积极研究和开发扩展 Kimi-Dev-72B 功能的方法,并探索更复杂的软件工程任务。未来的迭代将侧重于与流行的 IDE、版本控制系统以及 CI/CD 流水线进行更深入的集成,使 Kimi-Dev-72B 更加无缝地融入开发人员的工作流程。

17.c起草网登录入
17.c起草网登录入发现田某雨失踪后,其同学、老师等均拨打过其手机,但无法接通。后来家属发现,田某雨的vivo s19手机在6月15日上午8时左右关机,下午3时左右开机。“至今处于开机状态,只是一直不接电话。”姐姐说,定位显示,田某雨的手机目前在南溪区某小区附近。李雪娇:心理咨询师手握四种结构性权力:一、症状解释权——通过专业术语框定来访者的体验;二、情感定调权——决定一段对话的节奏与情绪基调;三、边界设定权——选择会谈时间、空间、接触形式;四、信息不对称权——是否将治疗理念与风险完整披露。17.c起草网登录入www.51cao.gov.cn彼时,广汇能源解释称,之所以收购合金投资是为进一步有效整合资源,集中优势力量发展与能源综合开发紧密相关的战略性新兴产业,致力于发展新型节能环保、资源循环利用产业经济模式,为实现在能源领域持续做“加法”打造新的上市平台,通过不断提升估值为广汇能源股东创造更高价值。依然讲述的是都市年轻人的爱情故事,欧豪饰演的马天泽和《前任》系列的女主角曾梦雪饰演的夏沫在大城市打拼,结果面对现实问题最终决定分手,但这之前他们想要完成分手清单,这是他们的约定,只有完成了清单上稀奇古怪的内容才能分手。
20251207 🍆 17.c起草网登录入这也是她在大S离世之后的首次公开露面,网友称她选择的《我要我们在一起》其实隐藏着洋葱,疑似她在借舞台机会缅怀大S。WWW.17cao.gov.cn而另一位41岁的北京大学本科生,北大的声誉和影响力不言而喻,其毕业生在各个领域都有着出色的表现。按照常理,她们的职业选择应该有着更为广阔的空间和更高的起点。
17.c起草网登录入
📸 赵少伟记者 贾宝平 摄
20251207 🧼 17.c起草网登录入虽然在今天,国产电池已经脱离山寨,比亚迪有了刀片,宁德有了麒麟,但很多深层次的技术,确实来自日韩,而且也很难找替代的方案,就比如隔膜。日韩企业确实有权利控诉咱们。WWW.88888.gov.cn抖音方面称,公关公司"新知百略"负责人张某编造"部分家电企业在某知名网络平台直播间引导用户违规申领国补"等虚假信息,指使员工使用该公司旗下"新经济大咖说"等账号对外发布,造成恶劣影响。
17.c起草网登录入
📸 邢子龙记者 刘德勇 摄
💢 马泰奥-莫雷托表示,那不勒斯为引进尤纳斯-穆萨给出的报价和米兰的要价差距不大,两家俱乐部实际上正在就交易中的浮动奖金部分进行商讨。WWW.8818成人A片
扫一扫在手机打开当前页