Press ESC to close

Mistral 更新了编码模型 Codestral 25.01:速度大幅提升,引领行业新标杆

Mistral 最近宣布推出其最新的开源编程模型——Codestral25.01,这是 Codestral 的升级版。新版模型采用了优化的架构,显著提升了性能,使其成为“重量级编程的领先者”,速度是上一版本的两倍。

与原版 Codestral 类似,Codestral25.01 仍然专注于低延迟和高频操作,支持代码修正、测试生成和中间填充任务。Mistral 表示,该版本特别适合需要大量数据和模型驻留的企业。基准测试显示,在 Python 编程测试 中,Codestral25.01 超过了预期,HumanEval 测试得分为 86.6%,远超上一版本 Codellama70B Instruct 和 DeepSeek Coder33B Instruct。

Screenshot_121-transformed-2.jpg

开发者可以通过 Mistral IDE 插件 和本地部署工具 Continue 访问该模型。此外,Mistral 还提供了通过 Google Vertex AIMistral la Plateforme 的 API 访问方式。目前,该模型可在 Azure AI Foundry 上进行预览,并即将在 Amazon Bedrock 平台上提供。

Mistral 的 Codestral 自去年发布以来已成为专注于编程的开源模型中的领导者。其首个版本 Codestral 是一个 22B 参数模型,支持多达 80 种语言,并在编程性能方面超越了许多竞争对手。随后,Mistral 推出了基于 Mamba 架构的 Codestral-Mamba 模型,能够处理更长的代码序列并满足更多的输入需求。

codestral-25-01-chat.jpg

Codestral25.01 的发布引起了开发者的广泛关注,在发布后短短几小时内便登上了 Copilot Arena 领导板首位。这一趋势表明,专门的编程模型正迅速成为开发者的首选工具,特别是在编程任务中相比多功能的一般模型需求日益明显。

虽然像 OpenAI 的 o3Anthropic 的 Claude 这样的通用模型也能完成编程任务,但专门的编程模型通常在性能上更胜一筹。在过去一年中,多家公司发布了专门针对编程的模型,如 阿里巴巴的 Qwen2.5-Coder 和中国的 DeepSeek Coder(后者成为首个超越 GPT-4Turbo 的模型)。此外,微软还推出了基于专家混合(MOE)模型的 GRIN-MoE,不仅能编码还能解决数学问题。

尽管开发者之间仍在争论是否选择通用或专门的模型,但编程模型的迅速崛起凸显了对高效精确编程工具的巨大需求。凭借专门为编程任务训练的优势,Codestral25.01-strong>

总结:本文介绍了 Mistral 最新的开源编程模型 Codestral25.01 的特点和性能提升,并讨论了专门针对编程任务的模型在开发社区中的发展趋势及其优势。
Douglas Lemke

Hi, I’m Douglas Lemke, Your Blogging Journey Guide 🖋️. Writing, one blog post at a time, to inspire, inform, and ignite your curiosity. Join me as we explore the world through words and embark on a limitless adventure of knowledge and creativity. Let’s bring your thoughts to life on these digital pages. 🌟 #BloggingAdventures

Leave a comment

Your email address will not be published. Required fields are marked *

@Katen on Instagram