domingo, 26 de abril de 2026

FSF Condemns Responsible AI Licences as Unethical

The Free Software Foundation has taken a firm stance against so-called 'Responsible AI' Licences, declaring them both unethical and incompatible with software freedom. In a blog post published this week, the FSF's Licensing and Compliance Manager explicitly criticised RAIL licences, which attempt to restrict artificial intelligence and machine learning software from being used in potentially harmful applications such as surveillance and crime prediction.

FSF Condemns Responsible AI Licences as Unethical

Whilst these licences are marketed as addressing ethical concerns in AI development, the FSF argues they fundamentally miss the mark. The organisation points out that RAIL licences fail to require the essential components necessary for users to truly control their computing with machine learning tools. These missing elements include complete training inputs, training configuration settings, trained models, and crucially, the source code of software used for training, testing, and running machine learning-based tools.

According to the FSF, this means that machine learning systems under RAIL can still be unethical, as use restrictions alone do not prevent these licences from being wielded as a means of exercising power over users. The Foundation further contends that RAIL licences contribute to unethical marketing of machine learning, hiding behind morally-loaded restrictions that they claim to enforce but cannot truly guarantee.

Instead of restricting how software can be used, the FSF advocates for more effective approaches to addressing social injustice through technology. These include government and community support for freedom-respecting tools and services, releasing programmes under strong copyleft licences, and entrusting copyrights to organisations with the resources to enforce copyleft provisions. The Foundation maintains that software freedom must be defended rather than denied, arguing that greater availability of free software encourages collaboration on tools that avoid moral dangers whilst solving existing problems. By denying people the freedom to use particular programmes, RAIL licences ultimately prevent software from being used for the common good.

Fuente Original: https://news.slashdot.org/story/26/04/25/079207/free-software-foundation-says-responsible-ai-licenses-which-restrict-harmful-uses-are-unethical-and-nonfree?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

sábado, 25 de abril de 2026

Meta y Amazon chips de IA multas millonarias

Meta ha sellado un acuerdo multimillonario con Amazon Web Services (AWS) para incorporar millones de núcleos de procesadores Graviton5 de Amazon en sus centros de datos. Esta estrategia es crucial para potenciar las cargas de trabajo de IA "agentic", un tipo de inteligencia artificial que requiere una gran capacidad de procesamiento general, no solo de aceleradores de IA.

Meta y Amazon: chips de IA, multas millonarias

Los chips Graviton5, basados en arquitectura ARM y fabricados en un proceso de 3 nanómetros, serán alquilados por Meta a través de AWS. Estos procesadores se encargan de las tareas de inferencia y orquestación intensivas en CPU que sustentan el razonamiento en tiempo real y la ejecución de agentes de IA multi-paso. La magnitud de este acuerdo subraya la insaciable demanda de Meta por capacidad de cómpu to para IA, que supera lo que una sola cadena de suministro puede ofrecer, a pesar de su considerable presupuesto de capital (capex) de entre 115 y 135 mil millones de dólares.

Este pacto con Amazon, un competidor directo en publicidad, comercio y cada vez más en IA, es solo una pieza de una campaña de adquisición sin precedentes. Meta ha comprometido sumas masivas con otros gigantes tecnológicos como Nvidia (50 mil millones de dólares), AMD (60 mil millones de dólares), CoreWeave (35 mil millones de dólares) y Broadcom. La compañía está diversificando sus proveedores y estrategias, invirtiendo tanto en hardware externo como en el desarrollo de sus propios chips MTIA, para asegurar el acceso a la infraestructura computacional necesaria para su ambiciosa hoja de ruta en IA. La decisión de Meta de alquilar capacidad a AWS, incluso teniendo la opción de construir internamente, se debe a la urgencia de desplegar sus soluciones de IA agentic, que requieren una escala d e cómputo que excede la capacidad de construcción propia en los plazos requeridos. Esto refleja un mercado de chips de IA cada vez más fragmentado, donde los grandes actores se convierten tanto en competidores como en colaboradores, y donde la demanda supera con creces la oferta disponible.

Fuente Original: https://thenextweb.com/news/meta-amazon-graviton-chips-agentic-ai

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AI Agents 85 Pilot 5 Production - Why Trust Lags

In the rapidly evolving world of artificial intelligence, a significant chasm exists between enterprises experimenting with AI agents and those ready to deploy them for critical tasks. While a staggering 85% of businesses are currently running AI agent pilot programs, a mere 5% have transitioned these agents into live production environments. This vast gap, as highlighted by Cisco's Chief Product Officer Jeetu Patel, boils down to a critical issue: trust. Without a robust trust architecture, the potential for AI agents to drive market dominance is hampered, potentially leading to business failure instead.

AI Agents: 85% Pilot, 5% Production - Why Trust Lags

Patel likens immature AI agents to teenagers – intelligent but lacking foresight and easily influenced, necessitating strong "guardrails" and "parenting." This analogy underscores the shift from information risk to action risk, where an AI agent's incorrect decision can have irreversible consequences, unlike a chatbot that might simply provide wrong information. The industry's struggle to bridge this pilot-to-production gap is rooted in the inherent unpredictability and potential for unintended actions by these sophisticated tools.

Cisco is actively addressing this trust deficit with a multi-pronged approach. At RSA Conference 2026, they unveiled tools like AI Defense Explorer Edition for red teaming, the Agent Runtime SDK for embedding policy enforcement, and the LLM Security Leaderboard. Moreover, Cisco has partnered with Nvidia, integrating its Defense Claw framework—a suite of security tools including Skills Scanner and CodeGuard—into Nvidia's OpenShell, an open-source secure container for AI agents. This integration enables automatic security enforcement upon agent activation, a crucial step in accelerating secure deployment. Patel emphasizes Cisco's strategic lead in this domain, claiming a six-to-nine-month product advantage and a three-to-six-month information asymmetry due to their ecosystem involvement.

Beyond product innovation, Cisco is pushing a radical internal mandate: by 2027, 70% of its products are slated to be built entirely by AI, with zero human-written code. This initiative aims to foster a new engineering culture where proficiency in coding with AI is paramount. To navigate this agentic era, Patel outlines five key "moats" for enterprises: sustained speed, trust and delegation, token efficiency, human judgment integration, and AI dexterity. The critical missing piece for widespread adoption remains a robust telemetry layer capable of distinguishing agent-driven actions from human ones, a capability many current logging configurations lack. Without this, even identity checks can be circumvented, as demonstrated by incidents where AI agents altered security policies or delegated tasks without human oversight. Ultimately, building trust through rigorous governance, clear delegation protocols, and comprehensive telemetry is essential for unlocking the full potential of A I agents.

Fuente Original: https://venturebeat.com/security/85-of-enterprises-are-running-ai-agents-only-5-trust-them-enough-to-ship

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Google Invierte Miles de Millones en IA El Futuro

¡Noticias de última hora en el mundo de la inteligencia artificial! Google está a punto de dar un golpe sobre la mesa, comprometiéndose a invertir hasta 40 mil millones de dólares en Anthropic. Esta cifra masiva sigue a una inversión inicial de 5 mil millones de dólares por parte de Amazon, lo que sitúa a Anthropic en una valoración estratosférica de 350 mil millones de dólares.

Google Invierte Miles de Millones en IA: ¿El Futuro?

El rápido ascenso de Anthropic se debe en gran parte al éxito de sus modelos de IA, como Claude, y productos innovadores como Claude Code, diseñado para agilizar el desarrollo de software, y Claude Cowork, que potencia el trabajo de conocimiento general. La compañía ha navegado con éxito las controversias que han rodeado a competidores como OpenAI, además de introducir flujos de trabajo más robustos y eficientes. Esto ha disparado la demanda de sus servicios, llegando incluso a causar interrupciones por la abrumadora cantidad de peticiones, lo que ha llevado a Anthropic a considerar medidas como límites de uso en horas punta o la reubicación de herramientas más demandantes de recursos en planes de servicio menos costosos.

El objetivo principal de estas inversiones es crucial: cerrar la brecha entre la creciente demanda y la capacidad de cómputo disponible para sus potentes modelos de IA. Tanto Google como Amazon están proporcionando a Anthropic recursos vitales, incluyendo chips optimizados para entrenamiento e inferencia de IA, así como capacidad de cómputo en la nube. Este tipo de acuerdos se ha vuelto una estrategia común en la industria de la IA: las grandes empresas tecnológicas invierten en startups emergentes, proporcionando no solo capital sino también la infraestructura necesaria para escalar, a cambio de poder vender sus propios productos y servicios a estas empresas en crecimiento. Es importante destacar que esta no es la primera vez que Google invierte en Anthropic, a pesar de ser competidores directos en el desarrollo de modelos de IA avanzados.

Fuente Original: https://arstechnica.com/ai/2026/04/google-will-invest-as-much-as-40-billion-in-anthropic/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Google Invierte 40 Mil Millones en Anthropic

Google se prepara para realizar una inversión histórica de hasta $40 mil millones en Anthropic, la compañía cuyo modelo insignia Claude está superando a Gemini en el mercado empresarial. Este movimiento representa la apuesta más grande jamás hecha por una compañía tecnológica en un rival de inteligencia artificial, y al mismo tiempo constituye una admisión implícita de que Gemini por sí solo no es suficiente para competir en este mercado acelerado.

Google Invierte $40 Mil Millones en Anthropic

El acuerdo incluye $10 mil millones en efectivo basados en la valoración actual de Anthropic de $350 mil millones, más $30 mil millones adicionales condicionados al cumplimiento de objetivos de rendimiento no revelados. Además del capital, Google proporcionará cinco gigavatios de poder computacional durante cinco años, incluyendo acceso a hasta un millón de sus chips TPU Ironwood de séptima generación. Con esta inversión, el compromiso total de Google con Anthropic alcanzaría aproximadamente $43 mil millones.

Los números de Anthropic justifican esta inversión masiva. La tasa de ingresos anualizados de la compañía alcanzó $30 mil millones en abril, un salto extraordinario desde $1 mil millones en enero de 2025. Ninguna empresa en la historia tecnológica estadounidense ha crecido a ese ritmo. Claude domina el 32% del mercado empresarial de APIs de modelos de lenguaje, superando al GPT-4o de OpenAI que tiene 25%. Ocho de las diez empresas del Fortune 10 son clientes de Claude, y más de mil negocios gastan más de $1 millón anualmente en la plataforma, una cifra que se duplicó desde febrero.

La estructura del acuerdo revela la verdadera naturaleza de esta alianza. La participación actual de Google en Anthropic es de aproximadamente 14%, adquirida a través de más de $3 mil millones en inversiones previas, con un límite contractual del 15% y sin derechos de voto ni asientos en la junta directiva. Este diseño parece elaborado para evitar activar umbrales de revisión antimonopolio mientras mantiene una exposición económica significativa. El compromiso de cinco gigavatios de capacidad computacional es estratégicamente más importante que el cheque de capital, asegurando que Google incruste profundamente sus TPUs en la infraestructura de Anthropic.

Este movimiento llegó cuatro días después de que Amazon anunciara su propia escalada, comprometiéndose hasta $33 mil millones en Anthropic. Ambos gigantes de la nube están compitiendo simultáneamente por asegurar a la misma compañía como su cliente de IA más importante. Internamente, Google DeepMind ha formado un "equipo de choque" específicamente para cerrar la brecha entre Gemini y Claude en codificación, después de que evaluaciones internas mostraran la superioridad de Claude en la categoría que genera más ingresos empresariales. El producto de codificación Claude Code alcanzó $1 mil millones en ingresos anuales dentro de seis meses de su lanzamiento y ahora genera más de $2.5 mil millones.

La inversión llega en un momento de mayor escrutinio regulatorio sobre las asociaciones de IA. El límite de propiedad del 15% de Google y la ausencia de representación en la junta fueron casi con certeza estructurados pensando en estas preocupaciones antimonopolio. Sin embargo, $43 mil millones en inversión total y una dependencia computacional de varios gigavatios crean un grado de entrelazamiento económico que ningún porcentaje de propiedad puede capturar completamente. Este acuerdo está estructurado para que Google gane ya sea que Anthropic tenga un éxito espectacular o simplemente tenga éxito, capturando miles de millones en gasto computacional a través de los compromisos de infraestructura.

Fuente Original: https://thenextweb.com/news/google-40-billion-anthropic-investment-gemini

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

DeepSeek-V4 Frontier AI at Fraction of Cost

The Chinese AI startup DeepSeek has launched DeepSeek-V4, a groundbreaking open-source model that delivers near state-of-the-art performance at approximately one-sixth the cost of premium competitors like Claude Opus 4.7 and GPT-5.5. This release, described as the 'second DeepSeek moment', arrives 484 days after the company's V3 model and represents a significant leap in making advanced AI accessible to developers worldwide.

DeepSeek-V4: Frontier AI at Fraction of Cost

DeepSeek-V4-Pro is priced at just $1.74 per million input tokens and $3.48 per million output tokens through its API, bringing a combined cost of $5.22 for standard usage. In stark contrast, GPT-5.5 costs $35.00 and Claude Opus 4.7 costs $30.00 for equivalent usage. The even more affordable DeepSeek-V4-Flash variant costs merely $0.42 for the same comparison, representing a staggering 98% reduction compared to premium models. This dramatic price compression is forcing enterprises to reconsider the economic viability of tasks previously too expensive to automate.

Whilst DeepSeek-V4-Pro-Max doesn't outright defeat GPT-5.5 or Claude Opus 4.7 across all benchmarks, it achieves remarkably competitive results. On BrowseComp, measuring agentic web browsing capabilities, DeepSeek scores 83.4%, narrowly trailing GPT-5.5's 84.4% and surpassing Claude Opus 4.7's 79.3%. However, on academic reasoning tests like GPQA Diamond, DeepSeek's 90.1% falls behind GPT-5.5's 93.6% and Claude Opus 4.7's 94.2%. The model demonstrates substantial improvements over its predecessor, V3.2, with MMLU-Pro scores jumping from 65.5 to 73.5 and FACTS Parametric performance more than doubling from 27.1 to 62.6.

The technical innovations underpinning DeepSeek-V4 are revolutionary. The model features a native one-million-token context window whilst requiring only 10% of the memory cache and 27% of the computational operations compared to V3.2. This efficiency stems from a Hybrid Attention Architecture combining Compressed Sparse Attention and Heavily Compressed Attention. The 1.6-trillion-parameter model utilises Mixture-of-Experts design, activating only 49 billion parameters per token. A novel Manifold-Constrained Hyper-Connections system stabilises the massive network, whilst the Muon optimiser enabled training on over 32 trillion high-quality tokens. Crucially, DeepSeek validated its architecture on Huawei Ascend NPUs, achieving up to 1.73x speedup and demonstrating independence from Western GPU supply chains, though Nvidia GPUs were still used during training.

Released under the permissive MIT License, DeepSeek-V4 allows unrestricted commercial use without royalties. The model integrates seamlessly with popular AI agents and development tools, establishing itself as essential open-source infrastructure. Industry reactions have been overwhelmingly positive, with Vals AI declaring it the number one open-weight model on their benchmarks. DeepSeek is retiring legacy endpoints by July 2026, transitioning entirely to the V4 architecture. This release fundamentally challenges the economics of frontier AI, proving that architectural innovation can substitute for raw computational power whilst making cutting-edge intelligence accessible globally.

Fuente Original: https://venturebeat.com/technology/deepseek-v4-arrives-with-near-state-of-the-art-intelligence-at-1-6th-the-cost-of-opus-4-7-gpt-5-5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

viernes, 24 de abril de 2026

China Restringe Inversion de EE UU en IA Aprobacion Gubernamental Obligatoria

Las tensiones entre China y Estados Unidos en el ámbito de la inteligencia artificial se intensifican, moviéndose más allá de las restricciones en chips y exportaciones para abarcar el capital y los modelos de IA. Según informes recientes, China planea implementar una medida significativa: restringir a sus empresas tecnológicas líderes, incluidas las startups de IA más prometedoras, de aceptar capital estadounidense sin obtener primero la aprobación del gobierno. Si se materializa, esta política representaría un cambio estructural importante en el acceso de las empresas chinas de IA a la financiación extranjera, equiparándola a los marcos de aprobación ya existentes para ciertas exportaciones de tecnología, flujos de datos y adquisiciones extranjeras de activos chinos.

China Restringe Inversión de EE. UU. en IA: ¡Aprobación Gubernamental Obligatoria!

Esta decisión surge en un contexto de escalada mutua. Recientemente, la administración Trump anunció medidas para controlar a las empresas tecnológicas extranjeras, con un enfoque particular en China, por supuestamente "explotar" modelos de IA de Estados Unidos mediante una práctica conocida como "destilación de modelos". Esta táctica permite a los desarrolladores chinos entrenar sus propios sistemas utilizando modelos de IA estadounidenses, ya sean de código abierto o accesibles comercialmente, acortando la brecha de capacidad sin necesidad de un desarrollo desde cero. La jugada de China, por su parte, busca evitar que el dinero estadounidense, que conlleva beneficios intangibles como experiencia gerencial, redes de talento y acceso estratégico, fluya hacia sus "campeones nacionales" de IA sin la supervisión estatal.

Ambas acciones, tomadas casi simultáneamente, pintan un panorama de una guerra de IA en la que ambos países buscan controlar los flujos de tecnología y capital. La regla de inversión saliente de EE. UU., que entró en vigor a principios de 2025, prohíbe las inversiones de capital en empresas chinas que operan en semiconductores avanzados, computación cuántica o ciertos sistemas de IA sin aprobación del Tesoro. El plan reportado de China es, en esencia, el reflejo inverso de esta regla, exigiendo aprobación gubernamental antes de que sus empresas de IA acepten financiación de EE. UU. La cuestión de la destilación de modelos es más novedosa técnicamente, con empresas chinas utilizando modelos como Llama de Meta para entrenar sus propios sistemas, lo que las empresas estadounidenses consideran una ventaja estructural injusta. Las implicaciones comerciales para las startups chinas de IA son significativas, ya que una capa adicional de supervisión gubernamental podría d esalentar aún más la inversión o impulsar la formación de capital de IA a través de canales domésticos. A pesar de estas medidas, el núcleo del problema persiste: las capacidades de IA de China están mejorando rápidamente, y la pregunta que ambos gobiernos deben responder ahora no es cómo mantener el orden tecnológico actual, sino cómo dar forma a los términos de una competencia que ya está en pleno apogeo.

Fuente Original: https://thenextweb.com/news/china-us-investment-ai-startups-approval

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Metas AI Drive 8000 Jobs Cut Survivors Train Replacements

Meta is undergoing a significant restructuring, announcing the layoff of approximately 8,000 employees, which constitutes about 10% of its global workforce. This wave of job cuts is set to commence on May 20th, and it's part of a broader strategy that also includes the cancellation of 6,000 previously open positions. Further reductions are anticipated in the latter half of 2026, potentially impacting another substantial portion of the workforce. The company's HR head, Janelle Gale, communicated these changes internally, citing the need for increased efficiency and to offset significant investments being made elsewhere.

Meta's AI Drive: 8,000 Jobs Cut, Survivors Train Replacements

The core driver behind these extensive layoffs is Meta's monumental investment in Artificial Intelligence. The company plans to allocate a staggering $115 billion to $135 billion towards AI infrastructure this year alone. This investment includes building massive AI superclusters and acquiring top-tier AI talent, with some individual engineers reportedly receiving packages worth up to $1.5 billion. These new hires, crucial for Meta's AI ambitions, are distinct from the employees being let go. The company is systematically reorganising its teams into AI-centric 'pods,' creating new roles like 'AI builder' and 'AI pod lead,' with the stated aim of achieving a 'step change in engineering productivity and product quality.' This restructuring marks the third major round of layoffs since 2022, bringing the total number of job cuts to over 33,000.

Adding to the employee unease, Meta is also implementing a workplace surveillance program called the 'Model Capability Initiative.' This initiative involves capturing employee keystrokes, mouse movements, and screenshots on work computers to train AI agents. Employees have reportedly protested this programme internally, and experts have raised concerns about consent and compensation for using employee behaviour as training data. The juxtaposition is stark: remaining employees are tasked with generating the data that will train AI systems, which in turn are designed to replace human roles. This strategy aligns with a broader tech industry trend where companies are cutting traditional roles to redirect resources towards AI development, with Meta's substantial revenue and profit underscoring that the cuts are strategic rather than a result of financial distress.

Fuente Original: https://thenextweb.com/news/meta-layoffs-8000-ai-restructuring-may-2026

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA Transatlantica Cohere y Aleph Alpha se unen valen 20 mil millones

En un movimiento que busca crear un gigante de inteligencia artificial con sede en Europa y libre de la influencia estadounidense, las empresas Cohere y Aleph Alpha han anunciado su fusión. Este acuerdo, valorado en aproximadamente 20 mil millones de dólares, tiene como objetivo principal ofrecer una alternativa tecnológica soberana a las grandes compañías de IA de Estados Unidos, tanto para empresas como para el sector público.

IA Transatlántica: Cohere y Aleph Alpha se unen, valen $20 mil millones

La fusión, anunciada en Berlín, con la presencia de ministros digitales de Alemania y Canadá, subraya la dimensión geopolítica del acuerdo. Aunque se presenta como una fusión equitativa, la estructura accionarial revela que los inversores de Cohere poseerán alrededor del 90% de la nueva entidad, mientras que los de Aleph Alpha tendrán el 10%. Esto, en la práctica, se asemeja más a una adquisición de Aleph Alpha por parte de Cohere, una estrategia que permite a ambas partes beneficiarse de un respaldo gubernamental significativo.

La lógica estratégica detrás de esta unión surge de la creciente preocupación en Canadá y Alemania por su dependencia de proveedores estadounidenses de inteligencia artificial y computación en la nube. Ambas naciones buscan fortalecer su propia capacidad en IA y reducir su vulnerabilidad ante posibles tensiones comerciales y tecnológicas. Cohere, con sede en Toronto, aporta su experiencia en el desarrollo de modelos de IA para empresas, un enfoque en seguridad, privacidad y personalización, así como ingresos recurrentes significativos y alianzas estratégicas con gigantes como Microsoft y Saab.

Por su parte, Aleph Alpha, con base en Alemania, trae consigo una profunda conexión con clientes del sector público y gubernamental alemán, conocimiento de las regulaciones euro peas y un peso simbólico importante en el debate sobre la soberanía de la IA en Europa. Su modelo se centra en ayudar a las empresas a implementar IA, independientemente del proveedor del modelo subyacente, actuando más como un integrador de sistemas.

La inclusión del gobierno alemán como un cliente ancla es un pilar fundamental de este acuerdo. Este rol proporciona a la nueva entidad una visibilidad de ingresos, credibilidad en adquisiciones y apoyo político que sería difícil de obtener de otra manera. Para Cohere, representa una entrada estratégica en los mercados gubernamentales europeos, mientras que para Alemania, ofrece una opción concreta y creíble frente a las alternativas estadounidenses. Sin embargo, surge la pregunta sobre si una empresa con una propiedad mayoritariamente canadiense puede realmente considerarse como IA soberana europea, lo cual será definido por las normativas de contratación y las definiciones políticas de la UE.

La nueva compa� �ía fusionada enfrentará una competencia feroz de titanes como OpenAI, Anthropic y Google, quienes también buscan conquistar los mercados empresariales y gubernamentales europeos. A pesar de esto, la combinación de Cohere y Aleph Alpha posee una ventaja clave: la legitimidad política en un mercado donde la residencia de datos, el cumplimiento del GDPR y la independencia del Cloud Act estadounidense son criterios de adquisición cada vez más importantes. Si la valoración de 20 mil millones de dólares se mantiene, esta entidad se posicionaría como una de las empresas de IA más valiosas del mundo fuera de Estados Unidos, marcando un hito simbólico y comercial significativo.

Fuente Original: https://thenextweb.com/news/cohere-aleph-alpha-merger-20-billion

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

DeepSeek V4 Nueva Revolucion en IA Open-Source

La startup china DeepSeek ha vuelto a sacudir el mundo de la inteligencia artificial con el lanzamiento de sus modelos DeepSeek-V4-Pro y DeepSeek-V4-Flash, aproximadamente un año después de que su modelo R1 provocara lo que Marc Andreessen denominó el "momento Sputnik de la IA". Ambos modelos fueron publicados en Hugging Face como versiones preliminares y mantienen la filosofía de código abierto que caracteriza a la compañía, permitiendo a los desarrolladores usar y modificar libremente el código fuente.

DeepSeek V4: Nueva Revolución en IA Open-Source

El avance técnico más destacado de V4 es su Arquitectura de Atención Híbrida, que mejora significativamente la capacidad del modelo para mantener el contexto en conversaciones largas. Con una ventana de contexto de 1 millón de tokens, suficiente para procesar una base de código completa o un documento del tamaño de un libro en un solo prompt, esta arquitectura está diseñada para tareas de razonamiento agéntico y de largo alcance. La variante Flash está optimizada para velocidad y eficiencia de costos, mientras que la versión Pro se enfoca en máximo rendimiento.

Según los benchmarks propios de DeepSeek, V4-Pro se posiciona como el modelo de código abierto más potente en programación y matemáticas, quedando por detrás únicamente del Gemini 3.1-Pro de Google en conocimiento general. En una evaluación inusualmente honesta, la compañía admite que su trayectoria de desarrollo va aproximadamente de 3 a 6 meses por detrás de los modelos de frontera de código cerrado como GPT-5.4 de OpenAI y Gemini 3.1-Pro, cayendo solo "marginalmente por debajo" de estos.

El aspecto geopolíticamente más relevante es que DeepSeek colaboró con fabricantes chinos de chips de IA como Huawei y Cambricon para optimizar V4 para su hardware más reciente, rompiendo la práctica estándar de dar acceso temprano a Nvidia o AMD. Ejecutar un modelo de clase frontera en los chips Ascend de Huawei, en lugar de los H100 o H200 de Nvidia, representa una prueba de concepto significativa para la cadena de suministro nacional china de hardware de IA, que ha estado bajo restricciones de exportación estadounidenses desde octubre de 2022.

El momento del lanzamiento no es casual. El modelo R1 de DeepSeek, lanzado en enero de 2025, borró aproximadamente 600 mil millones de dólares de la capitalización de mercado de Nvidia en un solo día, obligando a los inversores a recalibrar sus suposiciones sobre el poder de cómputo necesario para construir IA de frontera. V4 llega a un mercado diferente y más competitivo, donde la competencia entre Estados Unidos y China en IA se ha convertido en una dimensión explícita de las políticas comerciales y tecnológicas. Estas son versiones preliminares y aún esperan evaluación independiente para confirmar las afirmaciones de rendimiento de DeepSeek.

Fuente Original: https://thenextweb.com/news/deepseek-v4-pro-flash-launch-open-source

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

OpenAI Unveils GPT-55 Smarter Coding and Efficiency

OpenAI has launched its latest artificial intelligence model, GPT-5.5, positioning it as the company's most intelligent and user-friendly offering to date. This release comes remarkably quickly on the heels of GPT-5.4, which was unveiled just last month, demonstrating OpenAI's rapid pace of innovation in the competitive AI landscape.

OpenAI Unveils GPT-5.5: Smarter Coding and Efficiency

The new GPT-5.5 model represents a significant leap forward in autonomous task management and coding capabilities. According to OpenAI, the system excels at a diverse range of professional tasks including writing and debugging code, conducting online research, and creating spreadsheets and documents. What sets GPT-5.5 apart from its predecessors is its enhanced ability to work across different tools seamlessly, offering users a more integrated and streamlined experience.

One of the most notable improvements is the model's capacity to handle complex, multi-faceted assignments with minimal oversight. Rather than requiring users to meticulously guide every step of a process, GPT-5.5 can accept broadly defined, messy tasks and autonomously plan, execute, and verify its work. The system demonstrates improved ability to navigate ambiguous instructions and persist through challenges, making it particularly valuable for professionals managing intricate projects.

OpenAI has also prioritised safety and efficiency in this release. The company claims GPT-5.5 features the strongest set of safeguards implemented to date, addressing ongoing concerns about AI safety and responsible deployment. Additionally, the model operates with significantly improved token efficiency in Codex, OpenAI's code-generation platform, which should translate to faster performance and reduced computational costs for users.

The rollout strategy targets OpenAI's premium user base, with GPT-5.5 becoming available to Plus, Pro, Business, and Enterprise ChatGPT subscribers, as well as Codex users. An enhanced version, GPT-5.5 Pro, will be exclusively accessible to Pro, Business, and Enterprise tier customers, offering additional capabilities for organisations with more demanding requirements.

Fuente Original: https://slashdot.org/story/26/04/23/1931220/openai-says-its-new-gpt-55-model-is-more-efficient-and-better-at-coding?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

jueves, 23 de abril de 2026

Microsoft Invertira 25 Mil Millones en Australia IA y Empleo

Microsoft ha anunciado una inversión histórica en Australia, comprometiendo A$25 mil millones hasta 2029. Este ambicioso plan representa la mayor inversión de la compañía en el país hasta la fecha y se suma a un compromiso previo de A$5 mil millones realizado en octubre de 2023. El anuncio, realizado por el CEO Satya Nadella junto al Primer Ministro Anthony Albanese, subraya la importancia estratégica de Australia en la expansión global de la inteligencia artificial.

Microsoft Invertirá 25 Mil Millones en Australia: IA y Empleo

La inversión se centrará en cuatro áreas clave. En primer lugar, la infraestructura: Microsoft ampliará su capacidad de supercomputación de IA a través de Azure en más de un 140%, desplegando procesadores avanzados y fortaleciendo la huella de centros de datos en el país. Actualmente, A ustralia cuenta con 29 sitios de Microsoft Azure, una red que se expandirá significativamente.

En segundo lugar, la ciberseguridad se verá reforzada. El programa Microsoft-ASD Cyber-Shield, una colaboración con la Dirección de Señales de Australia, se extenderá a más agencias gubernamentales y se profundizará la cooperación en resiliencia nacional con el Departamento de Asuntos Internos. Esto busca una integración más estrecha entre la infraestructura de Microsoft y la arquitectura de seguridad nacional australiana.

La tercera área es el desarrollo de habilidades. Microsoft se ha comprometido a capacitar a tres millones de australianos en habilidades de IA listas para el mercado laboral para finales de 2028, complementando el compromiso previo de formar a más de un millón de australianos y neozelandeses. Finalmente, la inversión abordará la seguridad y gobernanza de la IA, incluyendo una colaboración con el Instituto Australiano de Seguridad de IA y un d iálogo pionero con trabajadores sobre el impacto de la IA en el empleo.

Este compromiso sitúa a Australia como un actor clave en el crecimiento económico impulsado por la IA, y no solo como un consumidor. La inversión se alinea con el Plan Nacional de IA del gobierno australiano, buscando capitalizar las oportunidades de la IA mientras se gestionan sus riesgos. Según estimaciones encargadas por Microsoft, la compañía ya contribuye significativamente a la economía local y al empleo, cifras que se espera aumenten con esta nueva inyección de capital.

Fuente Original: https://thenextweb.com/news/microsoft-a25-billion-australia-ai-investment

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Cloudsmith Secures 72M for AI Software Supply Chain Security

Cloudsmith, a Belfast-based firm specialising in artifact management, has successfully secured a substantial $72 million in Series C funding. The round was spearheaded by TCV, with existing investors like Insight Partners also participating, demonstrating a strong, renewed confidence in the company's vision less than 13 months after their $23 million Series B. This significant investment is earmarked for further product development and a broader go-to-market expansion.

Cloudsmith Secures $72M for AI Software Supply Chain Security

The core of Cloudsmith's mission addresses a critical and evolving challenge in enterprise software development. As artificial intelligence coding agents become increasingly adept at generating software at an astonishing pace and volume, the traditional human code review process is becoming insufficient. This surge in AI-generated code leads to an explosion in software artifacts – anything from package files and compiled applications to dependencies and containers – that enterprises must meticulously manage, track, and secure. The threat landscape is also expanding, with compromised open-source dependencies, novel vulnerability patterns introduced by AI, and growing regulatory demands for software to be "secure by design" amplifying the need for robust security measures.

Cloudsmith's platform acts as a cloud-native private registry and artifact management solution. It empowers enterprises to host and distribute their internal software packages, mirror public registries like PyPI and Docker Hub within a controlled private environment, and critically, to enforce security scanning, policy enforcement, and access controls on every component entering or exiting their build pipelines. The company positions its offering as a superior alternative to legacy platforms such as JFrog Artifactory and Sonatype Nexus, arguing that these older tools were not built to handle the scale and complexity of AI-driven development. Cloudsmith has recently enhanced its offering with an ML Model Registry and an Enterprise Policy Manager, further solidifying its commitment to governing and securing the AI software supply chain.

Fuente Original: https://thenextweb.com/news/cloudsmith-72m-series-c-tcv-ai-software-supply-chain

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Google Lanza TPUs Para La Era Agente

Google ha presentado dos nuevos Tensor Processing Units (TPUs) de octava generación, diseñados para abordar las demandas de la emergente "era agente" en la inteligencia artificial. A diferencia de depender exclusivamente de hardware de terceros, Google continúa innovando con sus propios chips personalizados, optimizados tanto para el entrenamiento como para la inferencia de modelos de IA.

Google Lanza TPUs Para La Era 'Agente'

La principal novedad son dos modelos: el TPU 8t, enfocado en el entrenamiento de modelos de IA de vanguardia, y el TPU 8i, optimizado para la inferencia. El TPU 8t promete reducir drásticamente los tiempos de entrenamiento, pasando de meses a semanas, gracias a sus clústeres de hasta 9600 chips y dos petabytes de memoria compartida. Ofrece casi el triple de capacidad de cómputo para entrenamie nto que su predecesor, Ironwood, y una notable eficiencia con una tasa de "goodpute" (cómputo útil) del 97%, minimizando el tiempo de inactividad y desperdicio.

Por otro lado, el TPU 8i está diseñado para la eficiencia en la ejecución de múltiples agentes especializados. Aunque posee menos potencia bruta que el 8t, triplica la cantidad de SRAM en chip, permitiendo cachés de valor clave más grandes y acelerando modelos con ventanas de contexto extendidas. Además, estos nuevos TPUs son los primeros en utilizar exclusivamente los CPUs ARM Axion de Google, integrando un CPU por cada dos TPUs para una mayor eficiencia general del sistema. Esta estrategia de "stack completo" basada en ARM busca optimizar el consumo de energía y el rendimiento.

La eficiencia energética es un pilar fundamental de estas nuevas unidades. Google afirma que los TPUs de octava generación ofrecen el doble de rendimiento por vatio en comparación con Ironwood. También se han implementado m ejoras en los centros de datos, como la integración de redes y cómputo en un solo chip y diseños de clústeres más eficientes, que han aumentado la potencia de cómputo por unidad de electricidad hasta seis veces. Se ha adaptado un sistema de refrigeración líquida para gestionar el calor generado, ajustando el flujo de agua según la carga de trabajo para una mayor eficiencia en el enfriamiento.

Estos nuevos TPUs estarán disponibles para potenciar los agentes basados en Gemini de Google y también para desarrolladores externos, soportando los frameworks de IA más populares como JAX, PyTorch y TensorFlow. El lanzamiento de estos chips por parte de Google subraya la creciente competencia en el mercado de aceleradores de IA y la importancia de hardware especializado para la próxima generación de sistemas de inteligencia artificial.

Fuente Original: https://arstechnica.com/ai/2026/04/google-unveils-two-new-tpus-designed-for-the-agentic-era/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT