menu
close

百度开源ERNIE 4.5模型家族,向AI巨头发起挑战

百度已将其ERNIE 4.5模型家族以Apache 2.0协议开源,这标志着其从以往的闭源策略向开放战略的重大转变。此次发布涵盖从3亿参数的小型模型到总参数高达4240亿的超大规模专家混合模型(MoE)在内的十款不同变体,并配套提供了完整的开发者工具。ERNIE 4.5在大多数基准测试中超越了其他中国开源模型,显示出全球AI开发向开放趋势转变,对OpenAI、Anthropic等闭源厂商构成压力。
百度开源ERNIE 4.5模型家族,向AI巨头发起挑战

在一次重大战略转向中,中国科技巨头百度宣布将其ERNIE 4.5模型家族以Apache 2.0协议开源,使全球开发者能够在无需高昂成本或厂商绑定的情况下构建AI应用。

此次全面开源于2025年6月30日正式发布,涵盖十款不同的模型变体,从轻量级的3亿参数稠密模型,到拥有470亿激活参数、总参数高达4240亿的强大专家混合(MoE)架构。百度还同步推出了配套开发者工具,包括用于训练和微调的ERNIEKit,以及支持多硬件高效部署的FastDeploy。

ERNIE 4.5采用创新的异构MoE架构,将文本与视觉模态的专家分离,同时实现知识共享。这一方法提升了多模态理解能力,同时在文本相关任务上保持了卓越性能。根据百度基准测试,ERNIE-4.5-300B-A47B-Base模型在28项基准中有22项超越了DeepSeek-V3-671B-A37B-Base,展现出在指令跟随、世界知识、视觉理解和多模态推理等方面的优势。

行业分析人士认为,此次开源是全球AI格局中的重要事件。南加州大学的Sean Ren指出:“每当一家主要实验室开源强大模型,都会提升整个行业的标准。”这一举措也对OpenAI、Anthropic等闭源厂商形成压力,迫使其为受限API和高价策略寻找合理性。OpenAI CEO Sam Altman已公开承认这一趋势,并表示未来有开源计划。

尽管ERNIE 4.5在整体性能上尚未超越OpenAI、Google或DeepSeek的旗舰模型,但其开源特性和强劲能力已成为开发者的有力选择。相关模型已在GitHub、Hugging Face及百度AI Studio等多个平台上线,支持PaddlePaddle和PyTorch两种权重格式。

百度此次战略转型,正值DeepSeek开源模型在今年早些时候获得国际关注,引发业内所谓“DeepSeek时刻”。开源AI浪潮正在重塑行业格局,有望推动先进AI能力的普及,并加速全球创新步伐。

Source:

Latest News