martes, 2 de diciembre de 2025

Arcee IA Open Source Americana Revive con Trinity

Arcee AI, una pequeña empresa estadounidense, busca revitalizar el panorama de la IA de código abierto en EE. UU. con el lanzamiento de Trinity Mini y Trinity Nano Preview, los dos primeros modelos de su nueva familia "Trinity". Estos modelos, entrenados íntegramente en Estados Unidos, representan un esfuerzo significativo para construir modelos de código abierto de extremo a extremo a escala, utilizando infraestructura y datos seleccionados en el país. Trinity Mini, con 26B parámetros y 3B activos por token, está diseñado para razonamiento de alto rendimiento, llamadas a funciones y uso de herramientas. Trinity Nano Preview, un modelo más pequeño de 6B parámetros, se centra en la conversación y tiene una personalidad más marcada, aunque con menor robustez en el razonamiento.

La arquitectura clave de estos modelos es AFMoE (Attention-First Mixture-of-Experts), un diseño personalizado que integra el enrutamiento disperso de expertos con una pila de atención mejorada. Esta arquitectura mejora la estabilidad durante el entrenamiento y la eficiencia a gran escala, permitiendo una mejor comprensión de conversaciones largas, razonamiento más claro y ejecución más rápida sin necesidad de recursos computacionales masivos. Trinity Mini ha demostrado un rendimiento competitivo en tareas de razonamiento, incluso superando a gpt-oss en benchmarks como SimpleQA, MMLU y BFCL V3. La latencia y el rendimiento también son destacables, con más de 200 tokens por segundo y una latencia de extremo a extremo inferior a tres segundos.

Un aspecto crucial del enfoque de Arcee es el control sobre los datos de entrenamiento, garantizado mediante la colaboración con DatologyAI, que automatiza el filtrado, la deduplicación y la mejora de la calidad de los datos. Esto asegura que el corpus de entrenamiento de Trinity evite contenido ruidoso, sesgado o con riesgo de copyright. Además, Arcee cuenta con Prime Intellect como socio de infraestructura, proporcionando la orquestación, el runtime TorchTitan modificado y el entorno de computación física necesarios para el entrenamiento de los modelos, incluyendo un clúster de 2048 GPUs B300 para Trinity Large, un modelo de 420B parámetros cuyo lanzamiento está previsto para enero de 2026. La iniciativa de Arcee refleja una apuesta estratégica por la soberanía del modelo, buscando controlar el bucle de entrenamiento completo para garantizar el cumplimiento y el control sobre los objetivos del entrenamiento, lo que consideran esencial para el futuro de la IA empresari al.

Fuente Original: https://venturebeat.com/ai/arcee-aims-to-reboot-u-s-open-source-ai-with-new-trinity-models-released

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

No hay comentarios:

Publicar un comentario