Hugging Face发布了Transformers v5"的首个候选版本,这标志着Transformers库的一个重要进展。自从五年前的v4版本发布以来,Transformers已经从一个专门的模型工具包发展成为AI开发中的关键资源,目前每天的安装量超过三百万次,总安装量超过12亿次。
不同于以往专注于某项重点特性,Transformers v5是一次全面的结构更新,旨在实现长期可持续性。其核心目标是互操作性,即确保模型定义、训练工作流、推理引擎和部署目标能够尽可能无缝地协同工作。正如一位社区成员总结"的那样:
v5不仅仅是一次版本号的提升,更像是Hugging Face承认Transformers是实际上的开放模型注册中心,并试图基于这个角色进行整理。
此次发布的中心主题是简化。Hugging Face继续推进模块化架构,减少模型实现之间的重复,并标准化诸如注意力机制(attention mechanisms)这样的通用组件。引入一些抽象的概念,如通用的AttentionInterface,从而使不同的实现可以整洁地共存,而不会使单个模型文件变得臃肿,从而能够更容易地添加新架构并维护现有架构。
Transformers v5同时缩小了其后端的关注范围。PyTorch现在是主框架,而对TensorFlow和Flax的支持则将逐步淘汰,以支持更深层次的优化和清晰度。与此同时,Hugging Face正与JAX生态系统紧密合作,通过合作伙伴库确保兼容性,而不是在Transformers内部花费重复性的精力。
在训练方面,该库扩大了对大规模预训练的支持。模型初始化和并行处理被重新设计,以便更整洁地与Megatron、Nanotron和TorchTitan等工具集成,同时保持与流行微调框架如Unsloth、Axolotl、TRL和LlamaFactory的高度兼容性。
Transformers v5通过简化API、持续批处理和分页注意力(paged attention)提高了推理效率,并引入了“transformers serve”组件,用来实现与OpenAI兼容的API部署模型。它不追求与vLLM或SGLang等专业引擎竞争,而是旨在成为一个可靠的参考后端,能很好地与它们集成。
另外一个变化是量化(quantization)作为第一等概念的地位。权重加载重新进行了设计,以更自然的方式支持低精度格式,这反映一种现实情况,那就是当前许多最先进的模型以8位或4位的变体形式发布,并部署在为此类工作负载专门优化的硬件上。
总体而言,Transformers v5更多地是强化其作为共享基础设施的角色,而不是增加表面功能。通过标准化模型定义,并与训练、推理和部署工具紧密结合,Hugging Face将Transformers定位为下一阶段开放AI发展中稳定的“生态系统粘合剂”。
完整的技术细节可以在GitHub"上的官方发布说明中找到,在候选版本阶段团队正在积极收集反馈。
原文链接:
Transformers v5 Introduces a More Modular and Interoperable Core"
Hugging Face发布了Transformers v5"的首个候选版本,这标志着Transformers库的一个重要进展。自从五年前的v4版本发布以来,Transformers已经从一个专门的模型工具包发展成为AI开发中的关键资源,目前每天的安装量超过三百万次,总安装量超过12亿次。
不同于以往专注于某项重点特性,Transformers v5是一次全面的结构更新,旨在实现长期可持续性。其核心目标是互操作性,即确保模型定义、训练工作流、推理引擎和部署目标能够尽可能无缝地协同工作。正如一位社区成员总结"的那样:
此次发布的中心主题是简化。Hugging Face继续推进模块化架构,减少模型实现之间的重复,并标准化诸如注意力机制(attention mechanisms)这样的通用组件。引入一些抽象的概念,如通用的AttentionInterface,从而使不同的实现可以整洁地共存,而不会使单个模型文件变得臃肿,从而能够更容易地添加新架构并维护现有架构。
Transformers v5同时缩小了其后端的关注范围。PyTorch现在是主框架,而对TensorFlow和Flax的支持则将逐步淘汰,以支持更深层次的优化和清晰度。与此同时,Hugging Face正与JAX生态系统紧密合作,通过合作伙伴库确保兼容性,而不是在Transformers内部花费重复性的精力。
在训练方面,该库扩大了对大规模预训练的支持。模型初始化和并行处理被重新设计,以便更整洁地与Megatron、Nanotron和TorchTitan等工具集成,同时保持与流行微调框架如Unsloth、Axolotl、TRL和LlamaFactory的高度兼容性。
Transformers v5通过简化API、持续批处理和分页注意力(paged attention)提高了推理效率,并引入了“transformers serve”组件,用来实现与OpenAI兼容的API部署模型。它不追求与vLLM或SGLang等专业引擎竞争,而是旨在成为一个可靠的参考后端,能很好地与它们集成。
另外一个变化是量化(quantization)作为第一等概念的地位。权重加载重新进行了设计,以更自然的方式支持低精度格式,这反映一种现实情况,那就是当前许多最先进的模型以8位或4位的变体形式发布,并部署在为此类工作负载专门优化的硬件上。
总体而言,Transformers v5更多地是强化其作为共享基础设施的角色,而不是增加表面功能。通过标准化模型定义,并与训练、推理和部署工具紧密结合,Hugging Face将Transformers定位为下一阶段开放AI发展中稳定的“生态系统粘合剂”。
完整的技术细节可以在GitHub"上的官方发布说明中找到,在候选版本阶段团队正在积极收集反馈。
原文链接:
Transformers v5 Introduces a More Modular and Interoperable Core"