miércoles, 18 de marzo de 2026

IA Empresarial El Problema de Autorizacion que Puede Romperla

La inteligencia artificial (IA) generativa está revolucionando el mundo empresarial, pero trae consigo un desafío de seguridad fundamental: la gestión de la identidad y autorización de los agentes de IA. A medida que estos agentes interactúan con sistemas críticos como CRMs y bases de datos, surge la pregunta crucial: ¿quién o qué está autorizando estas acciones? La falta de un marco claro para definir la identidad y los permisos de los agentes de IA podría convertirse en un obstáculo insuperable para su adopción generalizada.

IA Empresarial: El Problema de Autorización que Puede Romperla

Las empresas se enfrentan a la necesidad de ir más allá de la simple autenticación. Mientras que otorgar credenciales a un agente puede ser relativamente sencillo, determinar qué acciones específicas tiene permitidas, bajo qué autoridad y durante cuánto tiempo, es un problema mucho más complejo. La tendencia actual de los desarrolladores a pegar directamente credenciales en las indicaciones de la IA, un riesgo de seguridad conocido, subraya la urgencia de soluciones robustas. Se está experimentando con estándares como SPIFFE y SPIRE, pero la adaptación a los agentes de IA no es directa. La clave reside en aplicar el principio de mínimo privilegio a las tareas específicas que el agente debe realizar, en lugar de otorgar permisos amplios basados en roles generales.

La dificultad no radica tanto en autenticar a un agente, sino en autorizar sus acciones de manera granular y auditable. Esto implica rastrear no solo qué agente actuó, sino también bajo qué autoridad y con qué credenciales. Se están explorando extensiones de OIDC como la solución principal, mientras que las propuestas propietarias de startups son vistas con escepticismo. A escala masiva, los casos límite se convierten en problemas reales que pueden causar un daño significativo. La solución definitiva pasará por construir una infraestructura de identidad desde cero, adaptada a la naturaleza de los agentes de IA, en lugar de intentar forzar las soluciones existentes diseñadas para humanos.

Fuente Original: https://venturebeat.com/security/the-authorization-problem-that-could-break-enterprise-ai

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Open AI Companies Embrace Risk for Innovation

In the rapidly evolving landscape of artificial intelligence, companies are increasingly opting for open AI models despite the inherent risks. This strategic choice is driven by a belief that the potential benefits of widespread access and collaborative development far outweigh the challenges.

Open AI: Companies Embrace Risk for Innovation

The article highlights that while open AI models offer significant advantages, such as fostering faster innovation and broader adoption, they also present considerable dangers. These risks include the potential for misuse, the spread of misinformation, and the development of harmful applications. However, many leading technology firms are willing to navigate these complexities, viewing them as necessary hurdles in the pursuit of groundbreaking advancements.

The decision to embrace open AI s ignifies a shift in how companies approach AI development. Instead of maintaining proprietary control, there's a growing trend towards sharing technology and knowledge, which proponents argue will accelerate progress and democratise access to powerful AI tools. This open approach allows a wider community of researchers and developers to contribute, identify vulnerabilities, and build upon existing frameworks, ultimately leading to more robust and beneficial AI systems. The underlying sentiment is that the collective intelligence and shared responsibility fostered by open models are crucial for unlocking AI's full potential, even with the associated security and ethical considerations.

Fuente Original: https://news.google.com/rss/articles/CBMiqwFBVV95cUxPbms3V2d3RjdVc0hnQlBLSTBfMHh2VHRGaGV2X2xQLUx6XzVDTDh6ZnBONy1mdTUzN0xFUzMwYXF0UFlyeGdhNVBmT3ROdXNrUUE2RnhZdkw1ZjVxbGRVaTUwWnFSemV6dnd3Yjk3Rk1HaUJtYTVXNlVDV19fTnZndUZTTEo1VThHdENKV1B0RnFpa0NuV1ZmQ0s1T3RMN2Y2emI0c0JmN09MS0U?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Nvidia Desata Poderosas Claws IA Empresariales Seguras

Nvidia está revolucionando el panorama de la inteligencia artificial empresarial con el lanzamiento de NemoClaw, una plataforma diseñada para integrar y asegurar la creciente adopción de agentes autónomos de IA, conocidos como 'claws'. Estos 'claws' representan un salto cualitativo respecto a los asistentes de IA anteriores, ya que son capaces de planificar, ejecutar tareas complejas, escribir código, navegar por internet y encadenar acciones de forma independiente durante extensos períodos de tiempo, sin intervención humana. El CEO de Nvidia, Jensen Huang, ha calificado a esta tecnología como el "sistema operativo para la IA personal", marcando un "nuevo renacimiento en el software" y posicionando a Nvidia como un actor clave en su preparación para el entorno empresarial.

Nvidia Desata Poderosas 'Claws' IA Empresariales Seguras

NemoClaw no es un competidor de plataformas como OpenClaw, sino un "envoltorio empresarial" que añade las capas de seguridad y escalabilidad necesarias para que estos agentes operen de forma fiable en entornos corporativos. Sus dos componentes principales son Nvidia Nemotron, una familia de modelos de IA de código abierto que pueden ejecutarse localmente, y Nvidia OpenShell, un runtime de seguridad de código abierto. OpenShell actúa como un entorno seguro, aislando cada 'claw' dentro de un contenedor (similar a Docker) con políticas configurables en YAML. Esto permite a los administradores definir con precisión qué archivos, conexiones de red y servicios en la nube puede utilizar un agente, bloqueando cualquier acceso no autorizado y mitigando así la superficie de ataque que de otro modo sería considerable.

La integración de NemoClaw aborda directamente la preocupación gener alizada sobre la seguridad y la gobernanza de los agentes autónomos. Harrison Chase, fundador de LangChain, subraya la demanda existente de una versión segura de estas tecnologías en las empresas, siendo la falta de una capa de seguridad y gobernanza creíble el principal obstáculo. Nvidia responde a este desafío con NemoClaw, que no solo facilita la ejecución local de modelos de IA avanzados, sino que también incluye un "router de privacidad" que dirige consultas a modelos más potentes en la nube cuando es necesario, sin exponer datos sensibles. La plataforma se complementa con el Nvidia Agent Toolkit y cuenta con el respaldo de importantes socios como Box y Cisco, quienes ya están demostrando el potencial de los 'claws' en flujos de trabajo como la gestión de documentos empresariales o la respuesta automatizada a vulnerabilidades de seguridad, demostrando un compromiso integral de Nvidia para hacer que la IA autónoma sea segura, escalable y accesible para el mundo empre sarial.

Fuente Original: https://venturebeat.com/technology/nvidia-lets-its-claws-out-nemoclaw-brings-security-scale-to-the-agent

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Mistral AI Lanza Forge para Entrenar Modelos Propios

Mistral AI ha lanzado Forge, una plataforma empresarial de entrenamiento de modelos que permite a las organizaciones construir, personalizar y mejorar continuamente modelos de IA utilizando sus propios datos propietarios. Este movimiento posiciona al laboratorio francés de IA en competencia directa con los gigantes de la nube en uno de los mercados más importantes de la tecnología empresarial.

Mistral AI Lanza Forge para Entrenar Modelos Propios

Forge va significativamente más allá de las APIs de ajuste fino que Mistral y sus competidores han ofrecido durante el último año. La plataforma soporta el ciclo completo de entrenamiento de modelos: pre-entrenamiento con grandes conjuntos de datos internos, post-entrenamiento mediante ajuste fino supervisado, y lo más crítico, pipelines de aprendizaje por refuerzo diseñados para alinear modelos con políticas internas y objetivos operacionales a lo largo del tiempo. Según Elisa Salamanca, jefa de producto en Mistral AI, Forge permite a empresas y gobiernos personalizar modelos de IA para sus necesidades específicas utilizando metodologías que los científicos de IA de Mistral emplean internamente.

La distinción que Mistral está estableciendo entre el ajuste fino ligero y el entrenamiento completo de modelos es fundamental. Durante los últimos dos años, la mayoría de la adopción empresarial de IA ha seguido un patrón conocido: las empresas seleccionan un modelo de propósito general y aplican ajustes a través de una API en la nube. Sin embargo, Salamanca argumenta que este enfoque se estanca cuando las organizaciones intentan resolver sus problemas más difíciles. Los ejemplos de clientes incluyen una institución pública que trabajaba con manuscritos antiguos con texto faltante, Ericsson traduciendo código heredado a moderno, y fondos de cobertura desarrollando modelos para lenguajes cuantitativos propietarios que nunca exponen a servicios de IA alojados en la nube.

El modelo de negocio de Forge opera a través de varias fuentes de ingresos. Para clientes que ejecutan trabajos de entrenamiento en sus propios clusters de GPU, Mistral no cobra por el cómputo sino que cobra una tarifa de licencia por la plataforma Forge, junto con tarifas opcionales por servicios de pipeline de datos y científicos integrados que trabajan junto al equipo del cliente. La infraestructura es flexible: el entrenamiento puede ocurrir en los clusters de Mistral, en Mistral Compute, o completamente on-premise dentro de los centros de datos del cliente. Cuando los clientes entrenan en su propia infraestructura, Mistral nunca ve los datos, manteniéndolos completamente bajo control del cliente.

El lanzamiento de Forge llega junto con otros anuncios importantes de Mistral: el modelo Mistral Small 4, Leanstral (un agente de código open-source para verificación formal), y su unión a la Coalición Nemotron de Nvidia como co-desarrollador del primer modelo base abierto de frontera de la coalición. Estos movimientos pintan el cuadro de una compañía que ya no se contenta con competir solo en benchmarks de modelos, sino que corre para convertirse en la columna vertebral de infraestructura para organizaciones que quieren poseer su IA en lugar de rentarla. Forge representa una apuesta de que las empresas que posean sus modelos de IA serán las que ganen, especialmente aquellas sentadas sobre décadas de conocimiento propietario en dominios altamente especializados donde los modelos genéricos son menos suficientes.

Fuente Original: https://venturebeat.com/infrastructure/mistral-ai-launches-forge-to-help-companies-build-proprietary-ai-models

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Mamba 3 Revolutionises AI With Superior Efficiency

The artificial intelligence landscape has been dominated by Transformer architecture since Google's groundbreaking 2017 paper, but a new challenger has emerged that promises to reshape how we think about AI efficiency. Mamba 3, the latest iteration of the State Space Model architecture, has been released under an open-source Apache 2.0 licence, offering developers and enterprises a compelling alternative that delivers nearly 4% improved language modelling performance whilst significantly reducing computational costs and latency.

Mamba 3 Revolutionises AI With Superior Efficiency

Developed by researchers led by Albert Gu of Carnegie Mellon and Tri Dao of Princeton, Mamba 3 represents a fundamental shift from training efficiency to an "inference-first" design philosophy. Unlike Transformers, which require massive computational resources and suffer from quadratic compute demands, Mamba 3 functions as a high-speed "summary machine" that maintains a compact internal state rather than re-examining every piece of previously processed data. This State Space Model approach allows AI to process vast amounts of information with incredible speed and drastically lower memory requirements.

The breakthrough centres on three key technological innovations. First, exponential-trapezoidal discretisation provides more accurate mathematical approximations of the system. Second, complex-valued SSMs employing the "RoPE trick" enable the model to solve reasoning tasks that were impossible for previous versions, finally bridging the "logic gap" that plagued efficient Transformer alternatives. Third, the Multi-Input, Multi-Output formulation transforms how the model interacts with hardware, performing up to four times more mathematical operations in parallel without increasing user wait times.

At the 1.5-billion-parameter scale, Mamba 3's most advanced variant achieved 57.6% average accuracy across benchmarks, representing a 2.2-percentage-point improvement over industry-standard Transformers. Perhaps most impressively, it matches its predecessor's predictive quality whilst using only half the internal state size, effectively delivering the same intelligence with significantly less memory overhead. This efficiency translates directly into reduced costs for enterprises deploying AI at scale.

For businesses, Mamba 3 offers a strategic advantage in total cost of ownership for AI deployments. By matching performance with half the state size, it effectively doubles inference throughput for the same hardware footprint. This makes it particularly valuable for agentic workflows like automated coding or real-time customer service, where low-latency generation is critical. The researchers predict the future lies in hybrid models that combine Mamba 3's efficient memory with Transformers' precise storage capabilities, offering organisations the best of both approaches.

Fuente Original: https://venturebeat.com/technology/open-source-mamba-3-arrives-to-surpass-transformer-architecture-with-nearly

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

martes, 17 de marzo de 2026

Microsoft y Nscale Campus IA con GPUs NVIDIA en Virginia

Nscale ha anunciado un acuerdo histórico con Microsoft para desarrollar un campus masivo de inteligencia artificial en Mason County, West Virginia. Este ambicioso proyecto se centrará en la implementación de la próxima generación de GPUs de NVIDIA, las Vera Rubin NVL72, desplegando aproximadamente 430,000 de estas potentes unidades.

Microsoft y Nscale: Campus IA con GPUs NVIDIA en Virginia

El acuerdo, formalizado como una carta de intención (LOI), es un hito significativo para Nscale y el desarrollo de su Monarch Compute Campus. Este campus, de más de 2,250 acres, se presenta como la primera microred de IA certificada a nivel estatal en Estados U nidos, con una capacidad energética potencial escalable a más de ocho gigawatts. La adquisición de este sitio se realizó a través de la compra de American Intelligence & Power Corporation (AIPCorp).

Un desafío clave para un campus de esta magnitud es el suministro eléctrico. Nscale ha optado por una solución independiente de la red eléctrica tradicional, colaborando con Caterpillar para desplegar generadores de gas natural que proporcionarán dos gigawatts de energía para mediados de 2028. Esta independencia energética busca eliminar la carga sobre los clientes de la red local y proteger sus facturas. Además, Nscale está explorando la captura de carbono para compensar las emisiones de los generadores, aprovechando la capacidad de secuestro en West Virginia.

La ubicación del campus no es casual. Se encuentra estratégicamente cerca de importantes centros de IA y la nube, como Ashburn, Virginia, lo que permite una baja latencia para cargas de trabajo de I A que requieren conexiones rápidas a infraestructura adyacente. Este acuerdo con Microsoft profundiza una relación comercial existente, donde Microsoft ya es cliente de Nscale en Noruega. El proyecto Monarch posiciona a Nscale como uno de los despliegues de computación de IA más grandes anunciados en el mercado estadounidense, sujeto a su ejecución.

Fuente Original: https://thenextweb.com/news/nscale-west-virginia-monarch-microsoft-vera-rubin

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

2026s Top First Class Suites Airline Luxury Revealed

Get ready for an elevated travel experience! As we look ahead to 2026, the world of aviation is set to unveil some truly astonishing First Class suites, pushing the boundaries of luxury and comfort in the sky. Simple Flying has compiled a list of the airlines that are leading the charge, promising passengers an unparalleled journey that rivals any five-star hotel.

2026's Top First Class Suites: Airline Luxury Revealed!

These aren't just seats; they're private sanctuaries designed for the discerning traveller. Expect features like spacious living areas, lie-flat beds that are more like king-sized mattresses, and integrated entertainment systems that would make any home cinema envious. Beyond the physical space, airlines are focusing on personalised service, gourmet dining options curated by top chefs, and amenities that cater to eve ry need, from designer amenity kits to on-demand cabin crew attention. The emphasis is on creating a bespoke experience, making long-haul flights feel less like a necessity and more like a destination in themselves. This new generation of First Class is all about exclusivity, cutting-edge technology, and an unwavering commitment to passenger well-being.

The article highlights the innovative designs and technologies being implemented by various airlines. These advancements aim not only to provide supreme comfort but also to enhance the overall travel experience through smart features and sophisticated aesthetics. As airlines compete to offer the ultimate in premium travel, passengers can anticipate a future where flying First Class is an experience of pure indulgence and sophisticated convenience.

Fuente Original: https://news.google.com/rss/articles/CBMihwFBVV95cUxQTGREWjlVd3JoZmlCdzFUTWlmVjhweTlMa1V6RFFrNlk3eHpsZ2drV3d1VDRIVW9YLTJkSUQzS2RlS0FEaU1FdHg2TUphcGljLTJELUVsTENpY0c1SlloUEpPV21ROUFVTHRHNmFHTWdWcXM5MEc0VGwyY3hISzBLT2hPMlVjTGs?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Britannica demanda a OpenAI por plagio y marca registrada

¡Atención, amantes de la información! La venerable Encyclopedia Britannica ha decidido tomar cartas en el asunto y ha presentado una demanda contra OpenAI, la compañía detrás de herramientas de inteligencia artificial como ChatGPT. El motivo principal es la presunta utilización masiva de casi 100,000 artículos con derechos de autor para entrenar los modelos de IA de OpenAI.

Britannica demanda a OpenAI por plagio y marca registrada

La querella no solo acusa a OpenAI de infracción de derechos de autor por el uso no autorizado de su contenido, sino que también señala que las respuestas generadas por ChatGPT a veces reproducen, de forma literal o parcial, pasajes de los artículos de Britannica. Esto representa un uso indebido a gran escala del material protegido.

Pero la cosa no termina ahí. Britannica también alega infracción de marca registrada, argumentando que ChatGPT crea contenido falso o inventado, conocido como 'alucinaciones', y lo atribuye erróneamente a la Encyclopedia Britannica. Además, la demanda sugiere que herramientas como ChatGPT desvían tráfico valioso de los sitios web de Britannica y Merriam-Webster. Aunque no se especifica una cantidad de daños monetarios, Britannica busca una orden judicial para detener estas prácticas, protegiendo así su valioso legado intelectual y su modelo de negocio. Un capítulo crucial en la batalla por los derechos de autor en la era de la inteligencia artificial.

Fuente Original: https://yro.slashdot.org/story/26/03/16/182217/encyclopedia-britannica-sues-openai-for-copyright-trademark-infringement?utm_source=rss1.0mainlinkanon&amp ;utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Ciberespionaje Chino Ataca Telecomunicaciones en Sudamerica

Una sofisticada campaña de ciberespionaje vinculada a China ha puesto en jaque a los proveedores de telecomunicaciones en Sudamérica. El grupo identificado como UAT-9244 ha desplegado una operación multinivel utilizando malware especializado capaz de comprometer sistemas Windows, Linux y dispositivos de red críticos. Esta amenaza representa un riesgo significativo para la infraestructura de comunicaciones de la región, destacando el interés estratégico de actores estatales en sectores sensibles.

Ciberespionaje Chino Ataca Telecomunicaciones en Sudamérica

Según la investigación de Cisco Talos, la actividad de UAT-9244 se ha detectado desde 2024 y muestra conexiones operativas con FamousSparrow, otro clúster de amenazas asociado a intereses chinos. Los atacantes han desplegado tres herramientas principales: TernDoor para comprometer sistemas Windows, PeerTime orientado a servidores Linux corporativos, y BruteEntry diseñado para explotar dispositivos de borde como routers y firewalls. Esta arquitectura multiplataforma permite a los atacantes adaptarse a diferentes componentes de la infraestructura tecnológica objetivo.

La estrategia de ataque revela un enfoque meticuloso centrado en el espionaje prolongado. Una vez que logran el acceso inicial mediante BruteEntry, los atacantes establecen persistencia a través de TernDoor y PeerTime, lo que les permite ejecutar comandos remotos y realizar movimientos laterales dentro de las redes comprometidas. A diferencia de campañas de ransomware o sabotaje directo, el objetivo principal es la recopilación continua de inteligencia y el monitoreo silencioso de las comunicaciones.

El sector de telecomunicaciones resulta particularmente atractivo para operaciones de espionaje debido a que gestiona volúmenes masivos de datos sensibles y proporciona servicios críticos de comunicación. Una intrusión exitosa puede derivar en filtración de información confidencial, espionaje industrial o incluso interrupciones estratégicas en infraestructuras esenciales. La naturaleza multiplataforma del malware utilizado incrementa significativamente la complejidad para detectar y responder a estos incidentes.

Los expertos recomiendan implementar medidas de seguridad robustas que incluyan el refuerzo de defensas perimetrales, segmentación efectiva de redes y restricción de servicios innecesarios en dispositivos críticos. Además, resulta fundamental mantener todos los sistemas actualizados con los últimos parches de seguridad y desplegar soluciones avanzadas de detección de intrusiones como EDR y XDR. Esta campaña demuestra que las organizaciones de infraestructura crítica deben adoptar estrategias de defensa en profundidad y vigilancia continua para enfrentar amenazas persistentes avanzadas patrocinadas por estados.

Fuente Original: https://unaaldia.hispasec.com/2026/03/uat-9244-ciberespionaje-chino-apunta-a-telecomunicaciones-en-sudamerica-con-backdoors-multiplataforma.html?utm_source=rss&utm_medium=rss&utm_campaign=uat-9244-ciberespionaje-chino-apunta-a-telecomunicaciones-en-sudamerica-con-backdoors-multiplataforma

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Nvidias Vera Rubin Revolutionary Seven-Chip AI Platform

Nvidia has unveiled Vera Rubin, an ambitious new computing platform comprising seven chips now in full production, backed by an extraordinary roster of AI industry leaders including Anthropic, OpenAI, Meta and Mistral AI. Announced at the company's annual GTC conference, CEO Jensen Huang described it as 'a generational leap' poised to initiate 'the greatest infrastructure buildout in history'. The platform promises up to 10 times more inference throughput per watt and one-tenth the cost per token compared to Blackwell systems, with every major cloud provider—AWS, Google Cloud, Microsoft Azure and Oracle Cloud Infrastructure—committed to offering it.

Nvidia's Vera Rubin: Revolutionary Seven-Chip AI Platform

The Vera Rubin platform integrates seven distinct chips: the Nvidia Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 SuperNIC, BlueField-4 DPU, Spectrum-6 Ethernet switch and the newly integrated Groq 3 LPU inference accelerator. These components are organised into five interlocking rack-scale systems functioning as a unified supercomputer. The flagship NVL72 rack connects 72 Rubin GPUs and 36 Vera CPUs, reportedly capable of training large mixture-of-experts models using just a quarter of the GPUs required on Blackwell—a claim that could fundamentally reshape the economics of frontier AI development.

Nvidia's strategic vision centres on what Huang calls 'agentic AI'—autonomous systems that reason continuously for extended periods, execute software, utilise external tools and improve iteratively. This represents a fundamental shift from chatbots that respond to single prompts. The company launched its Agent Toolkit, including OpenShell, an open-source runtime for secure autonomous agents, with adoption from Adobe, Atlassian, Cisco, CrowdStrike, Salesforce, SAP, ServiceNow and Siemens. Additionally, Nvidia introduced the Nemotron Coalition, a global collaboration developing open frontier models with partners including Mistral AI, Perplexity, LangChain and Mira Murati's Thinking Machines Lab.

The platform's reach extends across diverse industries. Roche is deploying over 3,500 Blackwell GPUs for drug discovery and digital manufacturing twins. BYD, Geely, Isuzu and Nissan are building Level 4-ready autonomous vehicles on Nvidia's Drive Hyperion platform, whilst Nvidia and Uber plan autonomous vehicle launches across 28 cities by 2028. The company also released its first healthcare robotics platform anchored by Open-H, the world's largest healthcare robotics dataset, and introduced the Vera Rubin Space Module for orbital computing, delivering 25 times more AI compute than the H100 GPU for space applications.

Nvidia's DGX Station, a deskside system delivering up to 20 petaflops of AI compute performance and capable of running trillion-parameter models, represents a quieter but potentially significant move into enterprise hardware. The company also unveiled reference designs for 'AI factories'—entire facilities optimised for AI production—with dynamic power provisioning enabling 30 per cent more infrastructure within fixed-power data centres. Whilst the performance claims remain largely unverified by independent benchmarks and the agentic AI thesis represents a bet on an unproven future, no competitor matched the comprehensiveness of Nvidia's vision or secured endorsements from leaders of Anthropic and OpenAI.

Fuente Original: https://venturebeat.com/infrastructure/nvidia-introduces-vera-rubin-a-seven-chip-ai-platform-with-openai-anthropic

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

lunes, 16 de marzo de 2026

Meta invierte 27 mil millones en IA un acuerdo masivo

Meta ha sellado un acuerdo monumental con el operador de neocloud Nebius por un valor de hasta $27 mil millones a lo largo de cinco años. Este pacto estratégico, que amplía una relación comercial ya existente, se perfila como uno de los mayores acuerdos de infraestructura de inteligencia artificial registrados hasta la fecha.

Meta invierte $27 mil millones en IA: un acuerdo masivo

El convenio se divide en dos partes clave. En primer lugar, Nebius se compromete a proporcionar $12 mil millones en capacidad de cómputo dedicada, que comenzará a implementarse a principios de 2027. Esta infraestructura se basará en la innovadora plataforma Vera Rubin de Nvidia, la última generación de aceleradores especializados en IA de la compañía. La segunda parte del acuerdo contempla que Meta adquiera capacidad adicional de otros clústeres de Nebius hasta alcanzar los $15 mil millones adicionales durante el mismo periodo de cinco años. Nebius priorizará la venta de esta capacidad a clientes externos, destinando a Meta cualquier remanente.

Esta expansión representa un crecimiento significativo respecto a un acuerdo inicial de $3 mil millones firmado en noviembre de 2025, elevando el gasto total contratado de Meta con Nebius a $30 mil millones. La inversión de Meta en IA se intensifica, con planes de destinar hasta $135 mil millones en gastos de capital para proyectos de IA solo en 2026. La creciente demanda de capacidad de cómputo para IA está impulsando a empresas como Nebius, posicionándolas como actores cruciales en la construcción de la infraestructura tecnológica del futuro. El acuerdo también resalta la importancia de la plataforma Vera Rubin de Nvidia, indicando el acceso de Nebius a hardware de vanguardia y el deseo de Meta de operar en la frontera de la capacidad de cómputo disponible.

Fuente Original: https://thenextweb.com/news/meta-nebius-27-billion-ai-infrastructure-deal

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AI Startup Alomana Secures 4M for Autonomous Enterprise Workflows

Italian AI startup Alomana has successfully closed a seed funding round, securing €4 million. This significant investment was led by CDP Venture Capital, with participation from other notable investors including Italia Venture II and Founders Factory. Alomana is focused on revolutionising enterprise automation with its innovative AI operating layer, named Alo.

AI Startup Alomana Secures €4M for Autonomous Enterprise Workflows

Alo is designed to go beyond the typical AI copilot by enabling autonomous AI workflows. It operates across an enterprise's entire tech stack, seamlessly integrating with data, documents, applications, and code. The platfor m's key capability is its ability to execute complex tasks independently. This includes performing in-depth data analysis on vast datasets, generating complete software applications, creating bespoke AI agents for specific teams, and automating critical operational processes such as financial controls, risk management, and security protocols. Alomana's core proposition is to drastically reduce the complexity and time typically involved in deploying AI solutions at scale, allowing businesses to integrate personalised AI quickly and achieve measurable results.

The company's CEO, Giuseppe Ettorre, highlights that Alomana aims to shift the paradigm from AI being a tool that companies use, to something they actively run. Alo has already been implemented in sectors like finance, manufacturing, and pharmaceuticals, with claims of delivering tangible EBITDA improvements for over 500 enterprise clients. The experienced founding team, with backgrounds at institutions like Bloomberg, the European Central Bank, and NASA, brings a wealth of expertise to the venture. This new funding will fuel the expansion of Alo's enterprise AI capabilities, enhance its autonomy features, and support its international growth, particularly beyond Italy. The investment underscores the growing interest in AI solutions that offer practical, autonomous execution for businesses.

Fuente Original: https://thenextweb.com/news/italian-ai-startup-alomana-raises-e4m

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA Exitosa 3 Cambios Cruciales para Empresas Hoy

Los recientes informes sobre fracasos en proyectos de Inteligencia Artificial (IA) han puesto de manifiesto que las causas no siempre son técnicas, sino más bien culturales y organizacionales. A menudo, vemos que los equipos de ingeniería desarrollan modelos que los gerentes de producto no saben cómo utilizar, o que los científicos de datos crean prototipos difíciles de mantener para los equipos de operaciones. La falta de involucramiento de los usuarios finales en la definición de lo que significa 'útil' también conduce a aplicaciones de IA que terminan infrautilizadas.

IA Exitosa: 3 Cambios Cruciales para Empresas Hoy

Las organizaciones que realmente obtienen valor de la IA han logrado una colaboración efectiva entre departamentos y han establecido una responsa bilidad compartida por los resultados. La tecnología es importante, pero la preparación organizacional lo es igualmente. Para superar estas barreras, es fundamental implementar tres prácticas clave.

En primer lugar, es esencial ampliar la alfabetización en IA más allá del departamento de ingeniería. Cuando solo los ingenieros comprenden el funcionamiento y las capacidades de un sistema de IA, la colaboración se resiente. Los gerentes de producto no pueden evaluar las compensaciones, los diseñadores no pueden crear interfaces intuitivas y los analistas no pueden validar los resultados. La solución no es convertir a todos en científicos de datos, sino asegurar que cada rol entienda cómo la IA se aplica a su trabajo específico. Esto fomenta un vocabulario compartido, permitiendo que la IA sea vista como una herramienta para toda la organización.

En segundo lugar, se deben establecer reglas claras para la autonomía de la IA. Muchas empresas caen en los extremo s: o revisan humanamente cada decisión de la IA, creando cuellos de botella, o permiten que los sistemas operen sin supervisión. Lo que se necesita es un marco que defina dónde y cómo la IA puede actuar de forma autónoma, estableciendo reglas sobre si puede aprobar cambios, implementar actualizaciones o desplegar código, siempre considerando la auditabilidad, la reproducibilidad y la observabilidad.

Finalmente, es crucial crear 'playbooks' multifuncionales. Cuando cada departamento desarrolla su propio enfoque para trabajar con sistemas de IA, se obtienen resultados inconsistentes y esfuerzos redundantes. Estos 'playbooks', desarrollados colaborativamente, deben responder a preguntas prácticas sobre cómo probar recomendaciones de IA, qué hacer en caso de fallos en despliegues automatizados, quién interviene al anular una decisión de IA y cómo incorporar feedback para mejorar el sistema. El objetivo es asegurar que todos entiendan cómo la IA se integra en su trabaj o y qué hacer ante resultados inesperados, transformando la cultura organizacional tanto como la implementación técnica.

Fuente Original: https://venturebeat.com/technology/fixing-ai-failure-three-changes-enterprises-should-make-now

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

NVIDIA GTC 2026 El Evento que Definira la IA

San José se convierte nuevamente en el epicentro tecnológico mundial con la inauguración de NVIDIA GTC 2026, el evento más esperado de la industria que reúne a 30,000 asistentes presenciales y cientos de miles en línea. Durante cuatro días, del 16 al 19 de marzo, el centro de convenciones de la ciudad y el SAP Center se transforman en el escenario donde Jensen Huang, CEO de NVIDIA, revelará la próxima fase de la infraestructura de inteligencia artificial que modelará los próximos dos años del sector.

NVIDIA GTC 2026: El Evento que Definirá la IA

NVIDIA llega a este evento con un impulso impresionante. Su informe de ganancias del cuarto trimestre de 2025 mostró ingresos de $68.1 mil millones, un aumento del 73% interanual, consolidando su posición como el proveedor fundamental del poder de cómputo sobre el cual se construye la revolución de la IA global. La compañía ha registrado récords de ingresos en cada uno de los últimos trimestres, demostrando que, a pesar de las fluctuaciones del mercado y las presiones geopolíticas, su posición fundamental permanece intacta.

Este año, GTC 2026 se centra en un concepto transformador: la IA ya no es simplemente una aplicación o un modelo, sino infraestructura esencial. Como señaló Huang, todas las empresas la usarán y todas las naciones la construirán. El programa incluye más de 1,000 sesiones distribuidas en diez sedes del centro de San José, abarcando temas cruciales como IA física, robótica, sistemas autónomos, gemelos digitales y computación cuántica.

Entre los aspectos más destacados se encuentran presentaciones de líderes de Tesla, Waabi, Skild AI, Disney Research Imagineering y Johnson & Johnson. Particularmente notable es la sesión de Disney, que mostrará cómo la compañía utiliza robótica física impulsada por IA para llevar personajes animados a entornos del mundo real. Además, la presencia de Dario Gil, subsecretario del Departamento de Energía de Estados Unidos, subraya que el consumo energético de los centros de datos de IA se ha convertido en una cuestión tanto política como técnica.

Lo que distingue a GTC 2026 de ediciones anteriores no es la escala de los anuncios, sino la madurez de la tecnología discutida. Con Blackwell ya probado, Vera Rubin en producción, y posibles lanzamientos como NemoClaw y acuerdos estratégicos significativos, NVIDIA demuestra que no solo suministra las herramientas para la fiebre del oro de la IA, sino que cada vez más define cómo se construye la mina misma. Este evento establecerá la dirección de la industria de IA para los próximos años.

Fuente Original: https://thenextweb.com/news/nvidia-gtc-2026-opens-today

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT