🏆基座模型
①项目:Kimi-Dev
★Kimi-Dev 是一个开源的编码大语言模型(LLM),专为软件工程任务设计。其最新版本 Kimi-Dev-72B 在 SWE-bench Verified 基准测试中达到了开源模型的新标杆,性能达到60.4%。该模型通过大规模强化学习进行优化,能够自动修补 Docker 中的真实代码库,并仅在整个测试套件通过时获得奖励,确保解决方案的正确性和稳健性。Kimi-Dev 可在 Hugging Face 和 GitHub 上下载和部署,欢迎开发者和研究人员探索其功能并贡献开发。
☆一键收藏:
https://sota.jiqizhixin.com/project/kimi-dev
②项目:MiniMax-M1
★MiniMax-M1是全球首个开源权重的大规模混合注意力推理模型。该模型采用混合专家(Mixture-of-Experts, MoE)架构与闪电注意力机制相结合,基于MiniMax-Text-01模型开发,拥有456B参数,每个token激活45.9亿参数。MiniMax-M1支持长达100万token的上下文长度,适合处理复杂任务。通过大规模强化学习训练,适用于从数学推理到软件工程等多种问题。其创新的CISPO算法和混合注意力设计提升了强化学习效率,实验表明在复杂软件工程和长上下文任务上表现优异。
☆一键收藏:
https://sota.jiqizhixin.com/project/minimax-m1
🤖 Agent开发
①项目:OWL
★OWL是一个前沿的多智能体协作框架,旨在推动任务自动化的边界。基于CAMEL-AI框架,OWL通过动态智能体交互,实现了更自然、高效和稳健的任务自动化,适用于多个领域。其目标是革新AI智能体协作解决实际任务的方式。
☆一键收藏:
https://sota.jiqizhixin.com/project/owl
②项目:s3
★s3是一个简单而强大的框架,用于在检索增强生成(RAG)中训练搜索智能体。它通过专注于搜索组件,而不改变生成器本身,教会语言模型如何更有效地进行搜索。s3在问答任务中表现出色,仅使用了之前方法一小部分的数据。该框架是模块化的、高效的,并设计为可以无缝地与任何黑盒大型语言模型(LLM)配合使用。
☆一键收藏:
https://sota.jiqizhixin.com/project/s3
🛠️框架平台、必备工具
①项目:ReasonGen-R1
★ReasonGen-R1 是一个两阶段框架,旨在通过监督微调和强化学习将链式思维推理整合到生成视觉模型中。首先,通过在新生成的推理数据集上进行监督微调,使自回归图像生成器具备显式的文本“思考”能力,然后使用群体相对策略优化(GRPO)算法优化其输出。该项目自动生成并发布了一组模型生成的推理与视觉提示配对的数据集,以实现对对象布局、风格和场景构图的控制规划。评估结果表明,ReasonGen-R1 在多个基准测试中表现优于强基线和先前的最先进模型。
☆一键收藏:
https://sota.jiqizhixin.com/project/reasongen-r1
②项目:GRA
★GRA是一个多小型语言模型协作框架,通过在小型语言模型中分配不同的角色(生成器、评审者、裁决者),模拟大型语言模型在数据合成中的迭代改进和质量控制。实验表明,GRA生成的数据质量可以媲美甚至超过单一大型语言模型的输出,挑战了高质量数据合成必须依赖大型模型的观点。
☆一键收藏:
https://sota.jiqizhixin.com/project/gra

