首页 企业AI IBM 将 Meta 的 Llama 4 模型添加到 watsonx.ai

IBM 将 Meta 的 Llama 4 模型添加到 watsonx.ai

by 哈罗德弗里茨

IBM 将 Meta 最新的两款 Llama 4 模型 Scout 和 Maverick 集成到 watsonx.ai 平台中。

IBM 已集成 Meta 的最新开源 AI 模型——骆驼4 Scout 和 Llama 4 Maverick 已加入其 watsonx.ai 平台。这款新一代混合专家 (MoE) 模型旨在提供高性能多模态功能,并显著提升成本效率、可扩展性和处理能力。随着 Llama 4 的加入,IBM 现在在 watsonx.ai 上支持 13 个元模型,这进一步巩固了 IBM 对采用开放、多模型方法实现生成式 AI 的承诺。

专家混合架构:高效且不妥协

Meta 的全新 Llama 4 模型标志着 AI 架构的重大进步。两种模型均采用 MoE 技术,能够智能地为每个代币仅激活部分模型“专家”,而非调动整个网络。这种有针对性的推理策略能够在不影响质量的情况下提高吞吐量并降低运营成本。

骆驼 4 侦察兵 Scout 拥有 109 亿个参数,由 16 位专家负责分配,但在推理过程中只有 17 亿个参数处于活跃状态。这种高效的配置能够实现更高的并发性和更快的响应时间,同时在编码、长上下文推理和图像理解任务中提供卓越的性能。尽管 Scout 占用空间小,但它基于 40 万亿个 token 进行训练,并且超越了活跃参数集显著增大的模型。

骆驼 4 特立独行 更进一步,拥有 400 亿个参数和 128 位专家,但每次推理仅需 17 亿个活跃参数。Meta 报告称,Maverick 在多模态基准测试中全面超越 OpenAI 的 GPT-4o 和谷歌的 Gemini 2.0 Flash,并且在推理和编码工作负载方面与 DeepSeek-V3 的性能相当,尽管效率更高。

型号 总参数 活动参数 专家人数 上下文窗口
骆驼 4 侦察兵 109B 17B 16 10M 代币
骆驼 4 特立独行 400B 17B 128 10M 代币

引领长远人工智能

Llama 4 Scout 引入了突破性的上下文窗口,其上下文窗口高达 10 万个词元,是目前业内最长的窗口。这项改进实现了多文档摘要、深入的代码库分析以及长期的用户个性化。Meta 将这一里程碑归功于两项架构创新:交错注意力层(无位置嵌入)和推理时间注意力缩放技术。这些增强功能统称为“iRope”,使 Meta 更接近其无限上下文长度 AI 的愿景。

适用于实际用例的原生多模态

传统的 LLM 仅基于文本进行训练,之后再针对其他数据类型进行改进。相比之下,Llama 4 模型被认为是“原生多模态”,这意味着它们从一开始就使用文本、图像和视频数据的组合进行训练。这使得它们能够自然地处理各种输入类型,并提供更集成、更具有情境感知的结果。

在训练过程中,模型在早期处理阶段融合视觉和语言数据,有效地教会系统同时进行跨模态的解释和推理。其结果是基于图像的推理性能卓越,包括能够在每个提示中处理多幅图像,并将特定的视觉元素与文本响应关联起来。

IBM WatsonX 上的企业部署

借助 watsonx.ai,开发者和企业可以访问 Llama 4 Scout 或 Maverick,并在云端、本地或边缘环境中对其进行微调、提炼和部署。IBM 的企业级平台支持整个 AI 生命周期,为各种技能水平的开发者提供工具——从代码到低代码和无代码环境。

watsonx.ai 包含与矢量数据库、代理框架和高级基础架构的预构建集成,可轻松实现 AI 的大规模运营。强大的治理工具可确保企业级合规性、安全性和可审计性,帮助团队以负责任的方式构建并更快地部署。

人工智能转型战略联盟

IBM 与 Meta 的合作将开放式创新与务实的企业级应用完美融合。Meta 不断拓展模型架构的极限,而 IBM 则提供了当代企业所需的基础架构、治理和部署灵活性,使其能够在不牺牲控制力或成本效益的情况下快速发展。

Llama 4 登陆 watsonx.ai 为 IBM 客户提供了一套新的高性能工具,可在广泛的用例中释放价值——无需供应商锁定,并保证在为企业设计的平台上运行。

参与 StorageReview

电子报 | YouTube | 播客 iTunes/Spotify | Instagram | Twitter | TikTok | RSS订阅