lunes, 6 de abril de 2026

Fortinet Parchea Vulnerabilidad Critica Explotada en FortiClient

Fortinet ha lanzado un parche de emergencia fuera de banda para corregir una vulnerabilidad crítica identificada como CVE-2026-35616 que afecta a FortiClient EMS (Endpoint Management Server). Lo más preocupante es que esta falla de seguridad ya está siendo explotada activamente por ciberdelincuentes en entornos reales, lo que convierte su corrección en una prioridad máxima para las organizaciones que utilizan esta herramienta de gestión de endpoints.

Fortinet Parchea Vulnerabilidad Crítica Explotada en FortiClient

La vulnerabilidad ha recibido una calificación CVSS de 9.1, lo que la sitúa en el rango crítico. El problema radica en un control de acceso inapropiado (CWE-284) en la API de FortiClient EMS, que permite a un atacante no autenticado eludir los mecanismos de seguridad y acceder a funciones del sistema que deberían estar protegidas. Este tipo de bypass pre-autenticación es especialmente peligroso porque no requiere credenciales válidas para ser explotado, permitiendo potencialmente la ejecución remota de comandos y código malicioso en el servidor.

Las versiones afectadas son FortiClient EMS 7.4.5 y 7.4.6. Fortinet ha puesto a disposición un hotfix temporal para mitigar el riesgo de forma inmediata, mientras que la corrección definitiva se integrará en la versión 7.4.7. El descubrimiento se atribuye a los investigadores de seguridad Simo Kohonen de Defused Cyber y Nguyen Duc Anh. Además, la empresa watchTowr reportó haber detectado intentos de explotación en sus honeypots desde el 31 de marzo de 2026, confirmando que los atacantes ya están automatizando ataques contra sistemas vulnerables.

La gravedad del asunto se incrementa porque FortiClient EMS es una herramienta centralizada de gestión que tiene control sobre múltiples equipos endpoint en una organización. Un compromiso exitoso podría dar al atacante acceso privilegiado a toda la infraestructura administrada. El artículo también menciona otra vulnerabilidad reciente, CVE-2026-21643, igualmente explotada en el mismo producto, aunque no está confirmado si ambas fallas se están encadenando en los ataques.

Las recomendaciones de seguridad son claras: aplicar el hotfix inmediatamente, especialmente si el servidor FortiClient EMS está expuesto a Internet. Además, se aconseja limitar el acceso a la API mediante controles de red estrictos, monitorear activamente los logs del sistema en busca de actividad anómala desde finales de marzo, y considerar cualquier instancia expuesta como una prioridad de respuesta a incidentes. El tiempo de reacción es crítico para prevenir compromisos que podrían afectar toda la red corporativa.

Fuente Original: https://unaaldia.hispasec.com/2026/04/fortinet-corrige-una-vulnerabilidad-critica-explotada-activamente-en-forticlient-ems-cve-2026-35616.html?utm_source=rss&utm_medium=rss&utm_campaign=fortinet-corrige-una-vulnerabilidad-critica-explotada-activamente-en-forticlient-ems-cve-2026-35616

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AI Bug Discovery Forces Internet Bounty Pause

The Internet Bug Bounty programme has announced a temporary halt to new submissions, marking a significant shift in how vulnerability discoveries are managed in the open-source community. Operating since 2012 and backed by several leading software companies, the programme has distributed over $1.5 million to security researchers who have identified critical bugs in widely-used software systems.

AI Bug Discovery Forces Internet Bounty Pause

The decision to pause comes as artificial intelligence tools dramatically alter the landscape of vulnerability research. According to HackerOne, which manages the programme, AI-assisted research is rapidly expanding both the coverage and speed of vulnerability discovery across the entire ecosystem. Historically, 80% of the programme's payouts rewarded new flaw discoveries, whilst 20% supported remediation efforts. However, this balance has become unsustainable as AI makes it increasingly simple to find bugs, creating a substantial gap between discovery rates and the capacity to actually fix these vulnerabilities.

The impact is already being felt across major projects. Node.js, a popular server-side JavaScript platform known for its extensive ecosystem, will continue accepting and triaging bug reports through HackerOne but will no longer offer financial rewards without Internet Bug Bounty funding. This development follows Google's recent decision last month to halt AI-generated submissions to its Open Source Software Vulnerability Reward Programme, indicating a broader industry trend.

In their statement, the Internet Bug Bounty programme emphasised their responsibility to ensure the initiative effectively serves its dual purpose of both discovery and remediation. The pause allows organisers to reconsider the structure and incentives needed to better align with the realities of the open-source ecosystem. They remain committed to strengthening open-source security and are actively collaborating with project maintainers and researchers to develop solutions that ensure vulnerability discoveries translate into meaningful remediation outcomes rather than simply accumulating unfixed security issues.

Fuente Original: https://it.slashdot.org/story/26/04/06/0113254/internet-bug-bounty-pauses-payouts-citing-expanding-discovery-from-ai-assisted-research?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

domingo, 5 de abril de 2026

Claude Pago Extra para Herramientas de Terceros

Anthropic ha anunciado un cambio significativo y repentino: el uso de su inteligencia artificial Claude con herramientas de terceros, como OpenClaw, se encarecerá sustancialmente. A partir del 4 de abril, los límites de suscripción de Claude ya no cubrirán estas plataformas externas. Para seguir utilizándolas, los usuarios deberán recurrir a una opción de pago por uso, facturada de forma independiente a su suscripción actual.

Claude: Pago Extra para Herramientas de Terceros

Esta nueva modalidad de pago por uso se ofrece con un descuento inicial. Alternativamente, Anthropic sugiere su API, que cobra por cada token procesado, en contraste con los planes Pro y Max que ofrecían un uso ilimitado hasta ciertos límites. La justificación técnica de Anthropic se centra en que sus propias herramientas, como Claude Code y Claude C owork, están optimizadas para maximizar la reutilización de texto y reducir el consumo de recursos. Las plataformas de terceros, al no aprovechar estas eficiencias, generan costes adicionales que Anthropic ya no está dispuesta a asumir.

La medida ha generado controversia. El creador de OpenClaw y recién contratado por OpenAI, Peter Steinberger, ha expresado su escepticismo, sugiriendo que el cambio coincide con la incorporación de funcionalidades similares a las de OpenClaw en las herramientas internas de Anthropic, y ve esto como un bloqueo a las soluciones de código abierto. Usuarios y observadores han señalado que el uso de OpenClaw podría volverse prohibitivamente caro para pequeños desarrolladores, forzándoles a buscar modelos alternativos. Aakash Gupta, por ejemplo, comentó que esto marca el fin de la era del "buffet libre" para la automatización, indicando que Anthropic absorbía los altos costes de los usuarios que utilizaban estas herramientas de terceros.

Boris Cherny, creador de Claude Code, reconoció la incomodidad, pero defendió la decisión como un ejercicio de ingeniería y optimización de recursos para poder atender a una base de clientes más amplia. La decisión de Anthropic de limitar las suscripciones a sus propias herramientas les otorga un mayor control sobre la interfaz y la recopilación de datos, pero corre el riesgo de alienar a su comunidad de usuarios avanzados. En esencia, Anthropic está priorizando la gestión de márgenes y la sostenibilidad de sus servicios sobre el modelo de consumo ilimitado subvencionado para la automatización externa, marcando el fin de una era para los usuarios de alta demanda en el ecosistema de IA.

Fuente Original: https://slashdot.org/story/26/04/04/1919236/anthropic-announc es-claude-subscribers-must-now-pay-extra-to-use-openclaw?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AI Secrets Leaked Meta Pauses Mercor Data Work

A significant supply chain attack has sent shockwaves through the AI industry, leading Meta to halt its work with AI data startup Mercor. This breach, executed through a compromised version of the open-source LiteLLM library, has potentially exposed the highly sensitive training methodologies behind leading large language models, not just personal data. This incident has sparked investigations at other major AI players like OpenAI and Anthropic, and has resulted in a class action lawsuit involving over 40,000 individuals.

AI Secrets Leaked: Meta Pauses Mercor Data Work

Mercor, a rapidly growing company founded by young entrepreneurs, specialises in creating bespoke training datasets for AI giants. Its business model, focused on generating fine-tuning and reinforcement learning data, has made it a critical, yet now vulnerable, link in the AI supply chain. The attack, orchestrated by a group identified as TeamPCP, exploited credentials obtained from a security scanner to inject malicious code into the LiteLLM library. This poisoned package was available for a short period, but its sophisticated payload was designed to harvest extensive sensitive information, including API keys, cloud credentials, and other secrets, exfiltrating them to a remote server.

The exposure of approximately four terabytes of data from Mercor includes source code, user databases, and personal verification documents. However, the most alarming aspect for companies like Meta is the potential leak of proprietary data selection criteria, labelling protocols, and training strategies. These methodologies represent significant intellectual property and competitive advantages that companies have invested billions in developing and keeping secret. The interconnected nature of the AI industry, with multiple competitors relying on the same data vendors, means that a single breach can have widespread implications, exposing the carefully guarded secrets of many. The fallout also includes a class action lawsuit alleging inadequate cybersecurity at Mercor and the claim of responsibility by the threat group Lapsus$, potentially in collaboration with TeamPCP, who began auctioning the stolen data on the dark web. This event serves as a stark warning about the systemic risk s inherent in the AI supply chain, highlighting the fragility of the infrastructure upon which the industry's rapid advancements have been built.

Fuente Original: https://thenextweb.com/news/meta-mercor-breach-ai-training-secrets-risk

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Hackers Atacan UE Herramienta Seguridad Compromete Datos

Un ataque a la cadena de suministro ha permitido a ciberdelincuentes acceder a datos sensibles de la Comisión Europea. El grupo TeamPCP logró comprometer Trivy, una popular herramienta de código abierto utilizada para escanear vulnerabilidades de seguridad. Al infectar Trivy con código malicioso, los atacantes consiguieron robar 92 GB de información comprimida de la infraestructura en la nube de la Comisión Europea, alojada en AWS.

Hackers Atacan UE: Herramienta Seguridad Compromete Datos

Posteriormente, la notoria banda ShinyHunters, conocida por otros ciberataques de alto perfil, publicó los datos robados. Estos incluían correos electrónicos y detalles personales de hasta 71 clientes de diversas instituciones de la Unión Europea. El incidente pone de manifiesto la fragilidad de la cadena de suministro del software de código abierto, en la que confían herramientas críticas para la seguridad gubernamental.

El ataque comenzó el 19 de marzo, cuando la Comisión Europea descargó inadvertidamente una versión comprometida de Trivy. TeamPCP explotó una rotación de credenciales incompleta tras una brecha previa en el repositorio de GitHub de Trivy. Esto les permitió introducir código malicioso en varias versiones de la herramienta. Cuando el sistema de seguridad automatizado de la Comisión actualizó Trivy, el malware sustrajo una clave de API de AWS, otorgando a los atacantes acceso a la cuenta en la nube de la Comisión.

Los atacantes llevaron a cabo una campaña metódica para buscar secretos adicionales y evadir la detección, antes de acceder a diversos servicios de AWS. La Comisión Europea no detectó la actividad anómala hasta cinco días después del compromiso inicial, el 24 de marzo, cuando las alertas señalaron un uso potencial in debido de las API de Amazon y un aumento inusual del tráfico de red. La Comisión hizo público el incidente el 27 de marzo, y al día siguiente, ShinyHunters publicó los datos en su sitio de filtraciones en la web oscura. Los datos comprometidos pertenecen a sitios web alojados para 42 clientes internos de la Comisión Europea y al menos 29 entidades de la UE, incluyendo agencias como la Agencia Europea de Medicamentos y la Autoridad Bancaria Europea.

Este suceso resalta las debilidades en la protección de la infraestructura digital de la UE y podría intensificar el debate sobre la soberanía digital europea y la dependencia de proveedores de la nube extranjeros. Para la industria tecnológica en general, la lección es clara: las herramientas de seguridad de código abierto, diseñadas para ser la última línea de defensa, se han convertido en un vector de ataque. La confianza en el modelo de seguridad automatizada y la infraestructura de software moderna se ven seriame nte cuestionadas cuando el propio escáner se convierte en el arma.

Fuente Original: https://thenextweb.com/news/european-commission-breach-trivy-supply-chain

Artículo generado mediante LaRebelionBOT

OCSF The Security Data Language Teams Need

Whilst the cybersecurity industry has been fixated on AI models and automation tools, a fundamental transformation has been quietly taking shape beneath the surface. The Open Cybersecurity Schema Framework (OCSF) is emerging as the industry's answer to a longstanding challenge: creating a unified language for security data that works across vendors, platforms, and technologies.

OCSF: The Security Data Language Teams Need

OCSF provides a vendor-neutral, open-source framework that allows security teams, enterprises, and product developers to describe security events, findings, objects, and contextual information using a consistent structure. For security operations centres (SOCs), this solves a persistent headache. Teams currently spend enormous amounts of time normalising data from disparate tools just to correlate basic security events. Consider detecting a potentially compromised credential: an employee logs in from San Francisco at 10 a.m., then mysteriously accesses cloud resources from New York two minutes later. Building systems that can spot such anomalies requires painstaking translation work because different security tools describe identical concepts using different field names, data structures, and assumptions. OCSF eliminates much of this translation overhead, enabling analysts to focus on actual threat detection rather than data wrangling.

The framework's momentum has been remarkable. Launched in August 2022 by AWS and Splunk, with contributions from Symantec, Broadcom, and other major players including Cloudflare, CrowdStrike, IBM, Okta, Palo Alto Networks, and Zscaler, OCSF has rapidly evolved from a 17-company initiative into a community with over 200 participating organisations and 900 contributors following its incorporation into the Linux Foundation in November 2024. The framework now appears throughout the security ecosystem: AWS Security Lake converts logs into OCSF format, Splunk translates incoming data using edge processors, Cribl supports streaming conversion, and CrowdStrike positions itself on both sides of the pipeline, translating Falcon data into OCSF whilst also ingesting OCSF-formatted information.

The rise of AI infrastructure has given OCSF fresh urgency. Modern AI deployments involve complex distributed systems including model gateways, agent runtimes, vector stores, and policy engines, all generating new forms of telemetry that span product boundaries. Security teams need to understand not just what an AI system produces, but what it actually does and whether those actions create security risks. Recent OCSF updates in versions 1.5.0 through 1.7.0 address these challenges by enabling teams to trace AI assistant tool calls, flag unusual behaviour, and investigate full action chains rather than merely final outputs. Upcoming developments in version 1.8.0 will allow teams to track model details, token counts, and message roles, helping investigators spot when AI systems pull excessive data or leak sensitive information through unusually verbose responses. OCSF has transitioned from community experiment to operational standard, providing the common infrastructure security tea ms need to correlate data across expanding AI-driven threat landscapes without losing critical context.

Fuente Original: https://venturebeat.com/security/ocsf-explained-the-shared-data-language-security-teams-have-been-missing

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

sábado, 4 de abril de 2026

Microsoft 10B Inversion IA y Ciberdefensa en Japon

¡Atención, entusiastas de la tecnología y la seguridad! Microsoft ha anunciado una inversión monumental de 10 mil millones de dólares en Japón, programada entre 2026 y 2029. Este ambicioso plan tiene como objetivo principal expandir la infraestructura de inteligencia artificial (IA), potenciar la capacidad local de la nube y, de manera crucial, fortalecer la ciberdefensa del país.

Microsoft: $10B Inversión IA y Ciberdefensa en Japón

La iniciativa no solo se centra en la tecnología, sino también en el talento. Microsoft se compromete a formar a un millón de ingenieros y desarrolladores para el año 2030. Este esfuerzo masivo busca alinear los objetivos de crecimiento de Japón en tecnologías estratégicas con la necesidad de salvaguardar la seguridad nacional, un objetivo compartido por la Primera Ministra Sanae Takaich i. La colaboración con empresas japonesas como SoftBank y Sakura Internet será clave para aumentar la capacidad de computación de IA dentro de Japón. Esto permitirá a las empresas y agencias gubernamentales mantener datos sensibles en el país mientras aprovechan los servicios de Microsoft Azure. Además, se intensificará la cooperación con las autoridades japonesas para compartir inteligencia sobre amenazas cibernéticas y prevenir delitos. En resumen, se trata de una jugada estratégica de Microsoft para consolidar su presencia, impulsar la innovación local y reforzar la seguridad digital en una región clave.

Fuente Original: https://slashdot.org/story/26/04/03/1914243/microsoft-to-invest-10-billion-in-japan-for-ai-cyber-defense-expansion?utm_source=rss1.0mainlinkanon&a mp;utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Tencents Lobster AI Dominating Enterprise with Open-Source

Tencent is making significant inroads into the enterprise AI market with ClawPro, a new platform built upon the immensely popular open-source framework, OpenClaw. This innovative tool, developed by an Austrian programmer and now the fastest-growing project on GitHub, allows businesses to deploy AI agents in a remarkably short time, offering features like template selection, model switching, and robust security compliance. ClawPro addresses the enterprise's need for stricter data governance, a crucial aspect that the original open-source version of OpenClaw was not initially designed for.

Tencent's Lobster AI: Dominating Enterprise with Open-Source

The launch of ClawPro is part of Tencent's broader strategy to integrate OpenClaw across its vast ecosystem, particularly within WeChat, which boasts over 1.3 billion users. The company has already introduced other OpenClaw-powered tools like QClaw and WorkBuddy, signalling its ambition to position WeChat as a central hub for AI agent interactions. This rapid development highlights Tencent's aggressive approach to capitalizing on the burgeoning AI agent wave. The underlying technology itself, OpenClaw, rapidly gained global traction, becoming the most-starred repository on GitHub in a record timeframe, demonstrating its immense potential and widespread appeal.

However, the widespread adoption of OpenClaw, particularly in China, has also raised significant security concerns. Chinese authorities have issued warnings about its weak default security configurations, urging users to implement stringent security measures. Despite these concerns and a temporary curb on its use in sensitive sectors, Tencent's ClawPro aims to provide a secure and compliant enterprise solution. This move signifies a broader trend where open-source AI innovations, originating from independent developers, are being rapidly adopted, adapted, and commercialised by large tech ecosystems, with China leading the charge in enterprise adoption speed. The success of ClawPro will hinge on Tencent's ability to navigate regulatory demands and prove the robustness of its security layers in an increasingly governed AI landscape.

Fuente Original: https://thenextweb.com/news/tencent-clawpro-openclaw-enterprise-ai-agents

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Karpathy IA Autodidacta con Markdown Adios RAG

Andrej Karpathy, figura clave en el desarrollo de IA, ha presentado un enfoque innovador para la gestión del conocimiento en Modelos de Lenguaje Grandes (LLM) que promete superar las limitaciones de las arquitecturas actuales. Su propuesta, bautizada como 'LLM Knowledge Bases', se aleja de la complejidad de las bases de datos vectoriales y la generación aumentada por recuperación (RAG) para proponer un sistema donde el propio LLM actúa como un 'bibliotecario de investigación' incansable.

Karpathy: IA Autodidacta con Markdown, Adiós RAG

El núcleo de esta arquitectura reside en la manipulación de archivos Markdown (.md). En lugar de fragmentar y vectorizar datos, Karpathy propo ne que el LLM compile, enlace e interconecte activamente estos archivos, que son intrínsecamente legibles por humanos y fáciles de procesar para la IA. El proceso se divide en tres etapas: 'Data Ingest', donde se recopila información en bruto y se convierte a formato Markdown; 'The Compilation Step', donde el LLM genera un 'wiki' estructurado con resúmenes, conceptos clave y, crucialmente, enlaces bidireccionales entre ideas relacionadas; y 'Active Maintenance (Linting)', donde el LLM realiza 'chequeos de salud' para identificar inconsistencias y nuevas conexiones, logrando un sistema que se 'autocura' y es auditable.

Esta metodología elimina el problema de la 'caja negra' de los embeddings vectoriales, permitiendo que cada dato sea trazable hasta un archivo .md específico. Las implicaciones para las empresas son enormes: pasar de 'lagos de datos crudos' a 'activos de conocimiento compilados'. Empresas que actualmente se ahogan en datos no estructurados podrían, con est e modelo, generar una 'Biblia de la Empresa' autoactualizable. La filosofía 'file-over-app' que promueve Karpathy empodera al usuario, garantizando la soberanía de sus datos, con la IA actuando como un editor avanzado. En definitiva, Karpathy no solo comparte un script, sino una filosofía: el LLM como agente activo de su propia memoria, abriendo la puerta a un 'archivo autónomo'.

Fuente Original: https://venturebeat.com/data/karpathy-shares-llm-knowledge-base-architecture-that-bypasses-rag-with-an

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Ataques Iranies Dejan Infraestructura AWS Fuera de Servicio

Los ataques militares iraníes han dejado severamente dañadas las zonas de disponibilidad de Amazon Web Services (AWS) en Bahréin y Dubái, provocando interrupciones prolongadas en los servicios de la nube y obligando a Amazon a recomendar a sus clientes que trasladen sus operaciones a otras regiones. Según un memorando interno de comunicación de Amazon, estas dos regiones continúan experimentando problemas graves, y los servicios no deben esperar operar con niveles normales de redundancia y resiliencia.

Ataques Iraníes Dejan Infraestructura AWS Fuera de Servicio

Con el conflicto bélico acercándose a su sexta semana, Irán ha convertido la infraestructura de Amazon en el Golfo Pérsico en un objetivo económico estratégico, y ahora apunta también a otras empresas tecnológicas. Las instalaciones de Amazon en Bahréin han sido atacadas en múltiples ocasiones, incluyendo un bombardeo el miércoles que causó un incendio significativo. Las instalaciones en los Emiratos Árabes Unidos también han sufrido varios impactos directos. La Guardia Revolucionaria Islámica (IRGC) ha emitido amenazas contra otros gigantes tecnológicos estadounidenses, incluyendo Microsoft, Google y Apple.

La infraestructura de Amazon tanto en Bahréin como en Dubái cuenta con tres zonas de disponibilidad, que son grupos de servidores de cómputo diseñados para proporcionar redundancia. Según la comunicación interna, ambas regiones tienen zonas que están completamente fuera de servicio y otras que están deterioradas pero aún funcionando. Amazon está trabajando activamente para liberar y reservar la mayor capacidad posible en la región para sus clientes, y ha solicitado que los servicios se reduzcan a la huella mínima requerida para apoyar la migración de clientes.

En el memorando interno, Amazon reconoce que no tiene un cronograma establecido para el retorno a las operaciones normales en las regiones de Dubái y Bahréin. Esta situación representa un desafío significativo para las empresas que dependen de estos centros de datos para sus operaciones críticas en Medio Oriente.

Fuente Original: https://tech.slashdot.org/story/26/04/03/2238241/iran-strikes-leave-amazon-availability-zones-hard-down-in-bahrain-and-dubai?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Nvidias Agent Toolkit Wins Over 17 Enterprise Giants

Nvidia has made a strategic play to dominate the emerging enterprise AI agent market by launching its Agent Toolkit, an open-source platform that 17 major software companies—including Adobe, Salesforce, and SAP—have committed to adopting. CEO Jensen Huang unveiled the platform at GTC 2026, positioning Nvidia not merely as a hardware provider but as the foundational layer for the next generation of autonomous AI systems that will operate across virtually every industry.

Nvidia's Agent Toolkit Wins Over 17 Enterprise Giants

The Agent Toolkit addresses a critical pain point in enterprise AI deployment: the complexity of assembling disparate components from multiple vendors. Nvidia's unified platform includes Nemotron (open models optimised for agentic reasoning), AI-Q (a blueprint for enterprise knowledge processing that can reduce query costs by over 50 percent), OpenShell (a security-focused runtime with policy-based guardrails), and cuOpt (an optimisation library). Each component is open source, yet optimised specifically for Nvidia hardware—a strategic decision that ensures proliferating AI agents generate demand for Nvidia GPUs.

The breadth of adoption reveals Nvidia's ambitions. Adobe will use the toolkit as the foundation for creativity, productivity, and marketing agents, integrating Firefly models and exploring Nemotron for personalised agentic workflows. Salesforce is implementing Agent Toolkit software to enable customers to build AI agents through Agentforce, with Slack serving as the orchestration layer. SAP is incorporating the technology into Joule Studio, whilst ServiceNow's Autonomous Workforce leverages both Nemotron and its own models in a hybrid approach. Beyond horizontal platforms, specialised industries are embracing the technology: Cadence, Siemens, and Synopsys are building semiconductor design agents; IQVIA is deploying agents across 19 of the top 20 pharmaceutical companies; and CrowdStrike is embedding security protection directly into Nvidia's agent architecture.

Nvidia's open-source strategy appears paradoxical for a multi-trillion-dollar company, yet it functions as a carefully constructed competitive moat. By making the software freely available whilst optimising it for proprietary CUDA libraries, Nvidia ensures that even independently developed AI agents perform best on its hardware. The newly announced Nemotron Coalition—including Mistral AI, Cursor, LangChain, and Perplexity—will advance open frontier models trained on Nvidia infrastructure, further embedding the company's technology into the ecosystem. LangChain's integration of Agent Toolkit components into its widely adopted framework (downloaded over 1 billion times) elevates Nvidia from vendor to essential infrastructure.

However, significant risks temper the narrative. Many partner announcements use hedged language like "exploring" and "evaluating" rather than confirming production deployments. Adobe's own statements acknowledge the non-binding nature of their agreement. Competition from Microsoft's Copilot ecosystem, Google's Gemini platform, and Amazon's Bedrock presents formidable alternatives with their own advantages. OpenShell's security guardrails, whilst architecturally promising, remain unproven at enterprise scale, and autonomous agents introduce threat surfaces the industry has barely begun to map. Organisational readiness—governance structures, change management, regulatory frameworks—often lags years behind technological capability.

The Agent Toolkit announcement arrived alongside a comprehensive product portfolio refresh, including the Vera Rubin platform with seven new chips, the Dynamo 1.0 inference operating system adopted by major cloud providers, and autonomous vehicle programmes with BYD, Geely, and Nissan. Roche announced deployment of over 3,500 Blackwell GPUs, the largest such footprint for a pharmaceutical company. These announcements collectively demonstrate Nvidia remaking itself across every layer of the computing stack, positioning the company not merely as a hardware supplier but as the platform provider for the age of autonomous AI agents—a transition Huang believes will eclipse even the current era of AI models.

Fuente Original: https://venturebeat.com/technology/nvidia-launches-enterprise-ai-agent-platform-with-adobe-salesforce-sap-among

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

viernes, 3 de abril de 2026

Google Lanza Gemma 4 IA Abierta y Licencia Apache 20

Google ha dado un paso adelante en el mundo de la inteligencia artificial abierta con el anuncio de sus nuevos modelos Gemma 4. Estos modelos llegan en cuatro tamaños diferentes, optimizados para su uso en entornos locales, desde potentes estaciones de trabajo hasta dispositivos móviles.

Google Lanza Gemma 4: IA Abierta y Licencia Apache 2.0

Las versiones más grandes, Gemma 4 de 26B Mixture of Experts y 31B Dense, están diseñadas para funcionar sin cuantizar en hardware potente como GPUs Nvidia H100, e incluso se espera que quepan en GPUs de consumo tras ser cuantizadas. Google ha puesto especial énfasis en reducir la latencia, logrando que el modelo de 26B active solo una fracción de sus parámetros durante la inferencia, lo que se traduce en una mayor velocidad de procesamiento.

Para el ámbito móvil, se presentan l os modelos Gemma 4 Effective 2B (E2B) y Effective 4B (E4B). Estos modelos destacan por su bajo consumo de memoria y batería, y han sido optimizados en colaboración con Qualcomm y MediaTek para su uso en smartphones, Raspberry Pi y Jetson Nano, prometiendo una latencia cercana a cero. Google afirma que estos nuevos modelos superan a Gemma 3 en rendimiento y eficiencia, posicionándose como los más capaces para ejecución local.

Además de las mejoras de rendimiento, un cambio crucial es la adopción de la licencia Apache 2.0 para los modelos Gemma 4. Esta licencia, mucho más permisiva y familiar para los desarrolladores que la anterior licencia personalizada de Google, elimina las restricciones de uso y comerciales, brindando mayor libertad a los desarrolladores para construir sobre la tecnología de Gemma. Esta apertura busca fomentar una mayor adopción y expandir lo que Google denomina el "Gemmaverse".

Los modelos Gemma 4 también están preparados para la crecient e tendencia de flujos de trabajo agenticos, ofreciendo soporte nativo para llamadas a funciones, salida JSON estructurada y optimización para herramientas y APIs comunes. Se ha mejorado su capacidad para la generación de código y el procesamiento de entradas visuales, como OCR y comprensión de gráficos, incluso en entornos offline.

La familia Gemma 4 se extiende a las versiones más pequeñas que impulsarán la próxima generación de Gemini Nano para smartphones, confirmando que el futuro de la IA en dispositivos móviles se basa en estos modelos abiertos y eficientes. Los desarrolladores ya pueden acceder a estos nuevos modelos a través de AI Studio, AI Edge Gallery, Hugging Face, Kaggle y Ollama, y también están disponibles para su uso en Google Cloud.

Fuente Original: https://arstechnica.com/ai/2026/04/google-announces-gemma-4- open-ai-models-switches-to-apache-2-0-license/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Googles Gemma 4 Open Licensing Fuels AI Innovation

Google has made a significant move in the open-weight AI model landscape with the release of its Gemma 4 family, notably switching to the standard Apache 2.0 license. This is a game-changer for enterprises that previously shied away from Google's Gemma models due to their custom, restrictive licensing terms, which often involved usage limitations and the potential for Google to unilaterally update them. The new Apache 2.0 license removes these friction points, aligning Gemma with the terms offered by other leading open-weight models like Mistral and Qwen, making it a more attractive and legally straightforward option for commercial deployment and redistribution.

Google's Gemma 4: Open Licensing Fuels AI Innovation

The Gemma 4 family comprises four models across two tiers: 'workstation' and 'edge'. The workstation tier features a 31B-parameter dense model and a 26B A4B Mixture-of-Experts (MoE) model, both capable of handling text and image inputs with substantial 256K-token context windows. The 'edge' tier includes the E2B and E4B models, compact units designed for mobile and embedded devices, offering text, image, and audio support with 128K-token context windows. The naming conventions highlight innovative parameterisation techniques: 'effective parameters' for the E-series models (like E2B, which runs like a 2B model despite having more total parameters) and 'active parameters' for the MoE model (like the 26B A4B, where only a fraction of parameters are active during inference), which significantly reduces computational costs.

Architecturally, Gemma 4 boasts native multimodality, integrating vision, audio, and function calling capabilities directly into its design, rather than treating them as add-ons. This means variable aspect-ratio image input, on-device audio processing with ASR and translation, and robust function calling are all built-in. The MoE architecture's use of 128 small experts, compared to the handful of large experts in other MoE models, is a key differentiator, promising efficient inference at a competitive performance level. Benchmarks show substantial improvements over previous Gemma versions, with the 31B model scoring impressively on reasoning and coding tasks. This release, combined with its permissive license and flexible deployment options (including serverless on Google Cloud), positions Gemma 4 as a compelling choice for organisations seeking advanced AI capabilities without licensing entanglements.

Fuente Original: https://venturebeat.com/technology/google-releases-gemma-4-under-apache-2-0-and-that-license-change-may-matter

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Gemma 4 de Google IA Potente Licencia Libre

Google ha dado un paso significativo en el mundo de la inteligencia artificial con el lanzamiento de Gemma 4, una nueva generación de modelos de IA de código abierto. Estos modelos llegan en cuatro tamaños distintos, diseñados para ofrecer un rendimiento optimizado para su uso local, brindando a los desarrolladores una mayor flexibilidad y control.

Gemma 4 de Google: IA Potente, Licencia Libre

Las variantes más grandes de Gemma 4, con 26B Mixture of Experts y 31B Dense, están pensadas para ejecutarse en hardware de gama alta como GPUs Nvidia H100. Sin embargo, Google ha puesto un gran énfasis en la reducción de la latencia, permitiendo que estos modelos funcionen eficientemente incluso cuando se cuantizan para GPUs de consumo. La arquitectura Mixture of Experts, en particular, solo activa una fracción de sus parámetros du rante la inferencia, lo que resulta en una velocidad de procesamiento de tokens considerablemente mayor en comparación con modelos de tamaño similar.

Para aquellos enfocados en dispositivos móviles y aplicaciones con recursos limitados, Gemma 4 presenta las opciones Effective 2B (E2B) y Effective 4B (E4B). Estos modelos están diseñados para un bajo consumo de memoria y batería, con un funcionamiento efectivo de 2 y 4 mil millones de parámetros respectivamente. La colaboración con Qualcomm y MediaTek ha permitido optimizar estos modelos para una amplia gama de dispositivos, desde smartphones hasta placas de desarrollo como Raspberry Pi y Jetson Nano, prometiendo una latencia cercana a cero.

Quizás uno de los anuncios más relevantes es el cambio de licencia. Google ha adoptado la licencia Apache 2.0 para Gemma 4, abandonando la licencia personalizada anterior. Esta decisión representa una mejora sustancial en términos de flexibilidad, eliminando restricciones c omerciales y otorgando a los desarrolladores el control total sobre sus datos, infraestructura y los modelos en sí. Expertos de la comunidad, como Clement Delangue de Hugging Face, han elogiado este movimiento como un hito importante que potenciará el ecosistema "Gemmaverse" de Google.

Fuente Original: https://tech.slashdot.org/story/26/04/02/1735238/google-announces-gemma-4-open-ai-models-switches-to-apache-20-license?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT