domingo, 15 de marzo de 2026

IA Publica en Canada Infraestructura Nacional o Peligro

La inteligencia artificial (IA) se está convirtiendo en una parte integral de nuestra sociedad, y surge un debate importante sobre quién debe controlarla. Mientras los líderes de la industria de la IA temen la nacionalización, expertos canadienses como Bruce Schneier y Nathan Sanders proponen audazmente una IA pública y nacionalizada para Canadá.

IA Pública en Canadá: ¿Infraestructura Nacional o Peligro?

Argumentan que las empresas de IA actuales, al ser entidades con fines de lucro, no siempre alinean sus intereses con el bien colectivo. Proponen crear un modelo de IA construido y financiado por Canadá, para los canadienses, considerándolo una infraestructura pública esencial, al igual que el transporte o la electricidad. Esto permitiría a los ciudadanos canadienses beneficiarse de la IA sin depender de otros países y aseguraría que los modelos se optimicen para el uso práctico en Canadá, no para el lucro global.

Esta IA pública ofrecería ventajas significativas, como un mayor control democrático y la capacidad de abordar éticamente cuestiones complejas como el sesgo, el uso de datos de entrenamiento con derechos de autor y la distribución equitativa del acceso. Canadá ya cuenta con instituciones de investigación de IA de primer nivel y financiación considerable, lo que proporciona una base sólida. La clave ahora es redirigir esta inversión hacia un modelo de IA completamente abierto y público.

Sin embargo, existen preocupaciones. Algunos, como el lector de Slashdot sinij, ven esto como un escenario distópico donde la IA podría negar servicios esenciales basándose en criterios de alineación o un supuesto "mayor bien". A pesar de estas preocupaciones, la propuesta busca reasignar la autoridad de toma de decisiones y el valor de la tecnología de IA de las corporaciones extranjeras a las instituciones públicas nacionales, ofreciendo una alternativa para la propiedad y el control de esta tecnología crucial.

Fuente Original: https://news.slashdot.org/story/26/03/15/0647257/does-canada-need-nationalized-public-ai?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AI Weapons Train in PUBG Hanwha Aerospaces Gaming Gambit

In a fascinating intersection of gaming and defence technology, Hanwha Aerospace is leveraging the popular virtual battleground of PUBG (PlayerUnknown's Battlegrounds) to train and test its advanced artificial intelligence (AI) weapon systems. This innovative approach aims to create more realistic and dynamic training scenarios for AI, moving beyond traditional simulation methods.

AI Weapons Train in PUBG: Hanwha Aerospace's Gaming Gambit

The core idea is to expose the AI to the complex, unpredictable environments and strategic decision-making inherent in a battle royale game. By adapting the AI to the challenges presented within PUBG's virtual world, Hanwha Aerospace anticipates developing more robust and adaptable AI for real-world defence applications. This includes training AI to identify targets, make rapid tactical choices, a nd operate effectively in chaotic situations, all within a safe and controlled virtual space.

This strategic partnership highlights a growing trend of defence companies exploring unconventional platforms for AI development. The engaging and inherently competitive nature of games like PUBG provides a rich dataset and a constant stream of diverse scenarios that are difficult to replicate through standard simulations alone. The goal is to enhance the learning curve for AI, ensuring it can perform optimally when deployed in critical defence missions, ultimately contributing to more sophisticated and efficient defence capabilities.

Fuente Original: https://news.google.com/rss/articles/CBMif0FVX3lxTE53cklpRVoyeGR2SkxTTk80RnV6eTFZZTBpakt RbTNRZ1BiXzdiM1lUcHBBVjJCQTlqMTVFN1NKYnlKMUxlLTVKNEtLbXViY3dHeFhvbTJNZ0FsYTZtODNCZGlsTUZWOGhjV0p6ODJkX1Q2dkNSUkl0ZWpFRDIzLXc?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Ataque GlassWorm Desarrolladores en Peligro

Un ataque sofisticado de cadena de suministro, apodado GlassWorm, ha surgido como una amenaza seria para la comunidad de desarrolladores. Lo que hace a este ataque particularmente preocupante es su habilidad para explotar una vulnerabilidad significativa: el abuso de 72 extensiones de Open VSX. Esto significa que los atacantes están apuntando directamente a las herramientas que los desarrolladores utilizan a diario para construir software, abriendo una puerta trasera peligrosa para la introducción de código malicioso.

Ataque GlassWorm: ¡Desarrolladores en Peligro!

La técnica empleada por GlassWorm es insidiosa. Al comprometer estas exte nsiones de Open VSX, que son cruciales para la funcionalidad y la personalización de entornos de desarrollo, los atacantes pueden inyectar código dañino que se propaga a través de las extensiones legítimas. Esto crea un riesgo de propagación masiva, ya que cualquier desarrollador que utilice una extensión comprometida podría, sin saberlo, estar introduciendo malware en sus proyectos o en las redes de sus organizaciones. La naturaleza de la cadena de suministro significa que una sola vulnerabilidad puede tener un efecto dominó, afectando a un gran número de usuarios finales.

La investigación revela que este ataque se dirige a la confianza que los desarrolladores depositan en las extensiones de código abierto. Al manipular estas extensiones, los atacantes buscan obtener acceso no autorizado, robar información sensible o incluso interrumpir operaciones críticas. La magnitud del problema, con 72 extensiones afectadas, subraya la necesidad urgente de que los desarroll adores y las organizaciones fortalezcan sus defensas y revisen cuidadosamente las extensiones que instalan y utilizan. La seguridad de la cadena de suministro de software es un campo de batalla cada vez más importante, y GlassWorm es un recordatorio contundente de los riesgos que implica.

Fuente Original: https://thehackernews.com/2026/03/glassworm-supply-chain-attack-abuses-72.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Fallas en OpenClaw Inyeccion y Exfiltracion de Datos

Recientemente se han descubierto vulnerabilidades críticas en OpenClaw, un agente de inteligencia artificial que podría poner en riesgo la seguridad de los datos de numerosas organizaciones. Estas fallas permiten dos tipos de ataques particularmente peligrosos: la inyección de prompts maliciosos y la exfiltración no autorizada de información sensible. Los investigadores de seguridad han alertado sobre la gravedad de estas brechas, que podrían ser explotadas por actores maliciosos para manipular el comportamiento del agente de IA o extraer datos confidenciales sin autorización.

Fallas en OpenClaw: Inyección y Exfiltración de Datos

La inyección de prompts es una técnica mediante la cual los atacantes pueden insertar instrucciones maliciosas en las consultas realizadas al agente de IA, logrando que este ejecute comandos no autorizados o revele información que debería permanecer protegida. Este tipo de vulnerabilidad es especialmente preocupante en el contexto actual, donde los agentes de IA se integran cada vez más en procesos empresariales críticos y manejan datos sensibles de clientes y operaciones corporativas.

La exfiltración de datos representa otro riesgo significativo asociado con estas vulnerabilidades. Los atacantes podrían aprovechar las fallas de OpenClaw para extraer información confidencial de los sistemas donde el agente opera, incluyendo credenciales de acceso, datos personales de usuarios, secretos comerciales y otra información estratégica. En un entorno empresarial donde la protección de datos es fundamental y está regulada por normativas cada vez más estrictas, este tipo de brechas puede tener consecuencias devastadoras tanto a nivel económico como reputacional.

Los expertos recomiendan a las organizaciones que utilizan OpenClaw implementar medidas de seguridad adicionales, incluyendo modelos de confianza cero que verifiquen continuamente cada solicitud y transacción. También se aconseja mantener actualizados todos los sistemas de IA, realizar auditorías de seguridad periódicas y establecer controles estrictos sobre qué datos pueden acceder estos agentes inteligentes. La combinación de inteligencia artificial con arquitecturas de Zero Trust se presenta como una estrategia efectiva para mitigar estos riesgos emergentes.

Fuente Original: https://thehackernews.com/2026/03/openclaw-ai-agent-flaws-could-enable.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AI Transforms Programming Into Conversational Architecture

The landscape of software development is undergoing a profound transformation as artificial intelligence reshapes how programmers work. Veteran tech journalist Clive Thompson's extensive investigation, featuring interviews with over 70 developers from tech giants and start-ups alike, reveals a startling reality: many Silicon Valley programmers are now barely writing code in the traditional sense. Instead, they're engaging in what can only be described as deeply unusual work—having conversations with AI assistants to generate software.

AI Transforms Programming Into Conversational Architecture

This shift represents perhaps the strangest evolution in programming's 80-year history. Developers are transitioning from construction workers who build code line by line to architects who design, direct, and judge AI-generated output. Programming legend Kent Beck himself has embraced this change, reporting that large language models have reinvigorated his productivity, allowing him to complete more projects than ever before. The experience, he notes, has an addictive quality reminiscent of slot machines.

The productivity gains are substantial but varied. Google's chief executive Sundar Pichai reports a 10 per cent increase in engineering velocity across the company's 100,000-plus developers, with simple tasks now completing tens of times faster whilst major changes proceed more cautiously. At start-ups, the transformation is even more dramatic, with some founders reporting nearly 100 per cent of their code being AI-generated, compared to just under 50 per cent at Google. One Amazon senior principal engineer celebrates how projects that seemed perpetually out of reach now require merely a six-minute conversation.

However, this revolution isn't without concerns. Some developers report feeling their traditional coding skills atrophying from disuse. Critics worry about the environmental cost of training AI models, the copyright issues surrounding training data, and the risk of producing poorly optimised code at scale. There's also fear that tech companies might weaponise AI agents to suppress worker demands. A minority of programmers refuse to use AI entirely, though industry veterans like Thomas Ptacek suggest these holdouts are experiencing the five stages of grief. Despite the controversies, most developers express satisfaction with their new role, still experiencing the thrill of creation even when AI writes the actual code. This transformation in programming may well foreshadow changes coming to countless other professions.

Fuente Original: https://developers.slashdot.org/story/26/03/14/2137238/will-ai-bring-the-end-of-computer-programming-as-we-know-it?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

sábado, 14 de marzo de 2026

Reglas de Exportacion de IA Gobierno de EE UU Cede Ante Controversia

El gobierno de Estados Unidos ha revocado una regla de exportación de hardware de inteligencia artificial (IA) que había generado considerable controversia. Esta regla, de carácter provisional, requería que las empresas extranjeras que invirtieran en ciertas tecnologías de IA estadounidenses compartieran detalles de sus inversiones. La decisión de retirar esta norma, anunciada por el Departamento de Comercio, responde a las críticas recibidas y a la falta de claridad sobre su aplicación.

Reglas de Exportación de IA: Gobierno de EE. UU. Cede Ante Controversia

La regla controvertida, que formaba parte de un conjunto más amplio de normativas de control de exportaciones de semiconductores, buscaba prevenir que adversarios extranjeros accedieran a tecnología avanzada de IA y hardware que pudiera ser utilizada con fines milita res o de vigilancia. Sin embargo, la comunidad tecnológica y las empresas expresaron preocupación por la vaguedad de la normativa, los posibles obstáculos a la inversión extranjera y la dificultad para cumplir con los requisitos de notificación.

Si bien esta regla específica ha sido retirada, el Departamento de Comercio ha afirmado que continuará trabajando en la elaboración de nuevas regulaciones para el control de exportaciones de tecnología de IA. El objetivo sigue siendo proteger la seguridad nacional y mantener la ventaja tecnológica de Estados Unidos, pero se espera que las futuras normativas sean más claras y tengan un enfoque más directo en las tecnologías críticas y los riesgos específicos. La administración subraya la importancia de un equilibrio entre la seguridad y la promoción de la innovación y la inversión en el sector de la IA.

Fuente Original: https://news.google.com/rss/articles/CBMiwwJBVV95cUxOUjN2QXphTmlqUEVWSWxmOTJmRjdtVDhFYjhqN0VWUUQ5UUdXVHNlbVk5UHNGRWpFeWtiblZNei0zbFZZejlPU0hMTldJdEhVZ3JFRHlUSjJFc1BtZ0FncDh3dEdyRExZa1ZNNjZ4eXNPZVJuNWJpbnlRREVqbTYzcm1KdzNIRUp3NUtKa2otTktoUjQzaGtMTWFsd0hPZldlaURPSmpUVHJ4RkNPbzhpZUg0YVpFSGxqaTVhOXhFdS1GUDZDWE9Nc0Nuazl1NG9FTFpKNzZ2LTNsRVItVGxVX0V1ZWpZSjFoS0NUUFBlRzJhTnA3VmNwU1EyX2hiTGVvQnBuUHhaSXVqOFFjRzRPWF9WTDJRTkNxaTgtZGJRVXhlNDlDblVUclNyTzFfeWU3ZnpCbTNLM0tqR3FWSi1xZ0ZUcw?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Metas Big AI Costs Trigger Major Layoff Plans

It appears Meta is gearing up for significant workforce reductions, with reports suggesting the tech giant could be looking to cut 20% or more of its staff. This comes as the company grapples with the substantial costs associated with its ambitious artificial intelligence infrastructure investments.

Meta's Big AI Costs Trigger Major Layoff Plans

Sources familiar with the matter indicate that Meta's leadership has begun signalling these potential cuts to other senior executives, urging them to develop strategies for streamlining operations. The exact timing and final scale of these layoffs are still undetermined, but the move is reportedly aimed at offsetting the immense financial outlay required for AI development and to prepare for a future where AI-assisted employees enhance overall efficiency.

If the 20% figure is realised, these layoffs would represent the most substantial since Meta's "year of efficiency" restructuring in late 2022 and early 2023. At the close of last year, the company had nearly 79,000 employees. This potential downsizing follows recent reports from The New York Times suggesting that Meta has postponed the release of its next flagship AI model, having seemingly fallen behind key competitors like Google, OpenAI, and Anthropic in the AI race.

Fuente Original: https://tech.slashdot.org/story/26/03/14/012226/meta-plans-sweeping-layoffs-as-ai-costs-mount?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

INTERPOL Caza Ciberdelincuentes 45000 IPs Caidas

En una operación global sin precedentes, INTERPOL ha dado un golpe contundente contra el cibercrimen, desmantelando una red masiva de 45,000 direcciones IP maliciosas y logrando la detención de 94 individuos involucrados en actividades ilícitas en línea. Esta iniciativa, parte de un esfuerzo coordinado internacional, busca erradicar las amenazas digitales que afectan a empresas y usuarios en todo el mundo.

INTERPOL Caza Ciberdelincuentes: 45,000 IPs Caídas

La magnitud de esta operación subraya la creciente sofisticación y el alcance del cibercrimen, así como la determinación de las fuerzas del orden para combatirlo. Las IPs desm anteladas estaban siendo utilizadas para una variedad de fines delictivos, incluyendo la distribución de malware, el phishing, el fraude y la explotación de vulnerabilidades en sistemas informáticos. La acción conjunta de INTERPOL y las agencias de ciberseguridad de múltiples países ha sido crucial para identificar y neutralizar estas infraestructuras criminales.

Las detenciones representan un avance significativo en la lucha contra las organizaciones que se benefician de la explotación digital. INTERPOL ha enfatizado la importancia de la colaboración internacional y el intercambio de inteligencia para abordar eficazmente las amenazas cibernéticas transfronterizas. La operación no solo desarticula redes criminales existentes, sino que también envía un mensaje claro a otros actores maliciosos: la impunidad en el ciberespacio está llegando a su fin. Se espera que esta acción inspire a otras agencias a intensificar sus esfuerzos en la prevención y persecución del cibercrimen, protegiendo así la infraestructura digital global.

Fuente Original: https://thehackernews.com/2026/03/interpol-dismantles-45000-malicious-ips.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

viernes, 13 de marzo de 2026

NanoClaw y Docker Agentes IA Seguros en Contenedores

La adopción empresarial de agentes de Inteligencia Artificial (IA) se enfrenta a un gran obstáculo: cómo permitir que estos agentes operen libremente sin comprometer la seguridad de los sistemas. Para abordar esta preocupación, NanoClaw, una plataforma de agentes de IA de código abierto, se ha asociado con Docker, la reconocida plataforma de desarrollo en contenedores. Juntos, buscan transformar la forma en que las empresas despliegan agentes de IA, haciéndolos lo más seguros posible mediante el uso de entornos de "sandbox".

NanoClaw y Docker: Agentes IA Seguros en Contenedores

Históricamente, muchos sistemas de agentes de IA han dependido de salvaguardas a nivel de software, operando demasiado cerca de la máquina anfitriona. Esto presenta un riesgo significativo, ya que los agentes, a diferencia de las aplicaciones tradicionales, son dinámicos: modifican entornos, instalan paquetes, crean archivos y se conectan a sistemas externos. La integración de NanoClaw con Docker Sandboxes promete llevar esta seguridad a un nivel de infraestructura más robusto. Docker Sandboxes, que utiliza aislamiento basado en MicroVMs, proporciona un entorno seguro y aislado para ejecutar agentes de IA, manteniendo al mismo tiempo la familiaridad de los flujos de trabajo de Docker.

Esta colaboración responde a la creciente necesidad de las empresas de desplegar agentes capaces que puedan interactuar con datos en vivo y realizar tareas complejas sin exponerse a riesgos de seguridad. La promesa de los agentes de IA radica en su capacidad para realizar trabajos abiertos y flexibles, pero es precisamente esta flexibilidad la que crea nuevos desafíos de seguridad y gobernanza. La solución conjunta de NanoClaw y Docker ofrece una forma de desbloquear todo el potencial de estos agentes sin basar la seguridad en la confianza, sino en límites bien definidos y entornos aislados. Esto es crucial para las organizaciones que buscan gestionar múltiples agentes, cada uno con diferentes permisos y acceso a datos, garantizando que un agente comprometido o con mal funcionamiento no pueda propagarse a otros sistemas o exponer información sensible.

La asociación se destaca por su enfoque en el código abierto y la compatibilidad técnica, sin transacciones financieras directas. Nació de la comunidad de desarrolladores, donde se demostró que NanoClaw funcionaba sin problemas dentro de Docker Sandboxes sin necesidad de cambios arquitectónicos en NanoClaw. Esto sugiere una alineación natural en la visión de cómo los agentes deben ser desplegados y aislados. El resultado es una solución que permite a los equipos ejecutar agentes de IA de forma segura en entornos aislados, simplificando el despliegue y fortaleciendo la postura de seguridad de las empresas. La iniciativa subraya un cambio fundamental en la industria de la IA, pasando de centrarse en la capacidad del modelo a la robustez del diseño del tiempo de ejecución y la infraestructura que lo soporta. Básicamente, las empresas necesitan no solo agentes más inteligentes, sino también "cajas" más seguras y confiables para albergarlos.

Fuente Original: https://venturebeat.com/infrastructure/nanoclaw-and-docker-partner-to-make-sandboxes-the-safest-way-for-enterprises

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

China Tightens AI Grip OpenClaw Banned New Security Rules

China is taking decisive action to regulate the rapidly expanding use of artificial intelligence agents, particularly in government sectors. In a significant move, the nation has banned the popular AI tool OpenClaw from all government computers. This ban comes amidst a growing frenzy of AI adoption across the country and highlights China's urgent efforts to establish control and ensure the security of its digital infrastructure.

China Tightens AI Grip: OpenClaw Banned, New Security Rules

The ban on OpenClaw is accompanied by the issuance of new security guidelines for AI adoption. This indicates a broader strategy to manage the risks associated with powerful AI technologies, which can be both a driver of innovation and a potential security vulnerability. The government's swift response suggests a concern that the rapid, unbridled i ntegration of AI tools could lead to unforeseen consequences or be exploited for malicious purposes. The new guidelines are expected to outline acceptable use cases, data handling protocols, and risk assessment procedures for AI systems deployed within government operations.

The adoption of AI tools like OpenClaw has been on a steep upward trajectory, with many anticipating significant productivity gains. However, China's decision to implement such stringent measures, including outright bans and detailed security mandates, signals a prioritisation of national security and control over immediate technological advancement. This proactive stance aims to prevent potential misuse, protect sensitive data, and maintain a secure environment as the nation navigates the evolving landscape of artificial intelligence.

Fuente Original: https://news.google.com/rss/articles/CBMi9wFBVV95cUxOUjd3Q2N4SHFuYjAxdmZaU2FqcUJEVl9BNWJoYVc0cWFLbVlXOWlhSUVZdE9pVGRMcVRVaUVVa3BOSDd1eXEybXJJanNCQU5FZlZUMmdpVFpKU2ZnOW9zUlFDQlAtekN0Y0FWMXZDYUVhbktBWW9uRUhsblV4aFdVbmwySTlSd1k4amVwcjFRSU1MSVdsVUotM3RmMzBvV190b0EwYWtaTzlwNDQ3WWd4MUUxQW8xbGtnTXBFZjhrWm1EaUltNEltRklzUlRHRkQ2RmMxcEVMNmgybFJUS1p4WUhfeGhERGZZU281aVduT1Z6ejNNOTR3?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Vulnerabilidades AppArmor Riesgos de Seguridad en Linux Revelados

¡Atención, usuarios de Linux! Una profunda investigación ha destapado la existencia de nueve vulnerabilidades críticas dentro de AppArmor, el popular sistema de seguridad de Linux diseñado para proteger contra aplicaciones maliciosas. Estas fallas, bautizadas colectivamente como 'CrackArmor', tienen el potencial de ser explotadas por atacantes para escalar privilegios hasta obtener acceso de root en sistemas afectados, e incluso para evadir los mecanismos de aislamiento en contenedores.

Vulnerabilidades AppArmor: ¡Riesgos de Seguridad en Linux Revelados!

El equipo de seguridad que descubrió estas brechas ha detallado cómo las vulnerabilidades pueden permitir a un atacante, que ya ha logrado comprometer un sistema con privilegios limitados, obtener control total del mismo. Esto significa que un software aparentemente inofensivo podría ser utilizado como puerta de entrada para una invasión completa del sistema. Además, el impacto se extiende a entornos de contenedores, donde AppArmor se utiliza comúnmente para aislar aplicaciones y prevenir movimientos laterales, permitiendo a los atacantes romper estas barreras de seguridad.

La gravedad de estas fallas radica en su capacidad para socavar la seguridad fundamental de los sistemas Linux. AppArmor funciona mediante la aplicación de perfiles de seguridad que restringen las capacidades de los programas. Sin embargo, las vulnerabilidades CrackArmor permiten a los atacantes eludir estas restricciones, dando lugar a escenarios de escalada de privilegios y a la anulación del aislamiento de contenedores. La explotación exitosa podría tener consecuencia s devastadoras, desde el robo de datos hasta la interrupción total de servicios. Es crucial que los administradores de sistemas estén al tanto de estas vulnerabilidades y tomen las medidas necesarias para mitigar los riesgos, manteniendo sus sistemas actualizados y aplicando las políticas de seguridad más estrictas posibles.

Fuente Original: https://thehackernews.com/2026/03/nine-crackarmor-flaws-in-linux-apparmor.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Veeam Corrige 7 Fallas Criticas de Seguridad

Veeam, una de las empresas líderes en soluciones de respaldo y replicación de datos, ha lanzado parches de seguridad urgentes para corregir siete vulnerabilidades críticas en su plataforma Backup & Replication. Estas fallas representan un riesgo significativo para las organizaciones, ya que podrían permitir a atacantes remotos ejecutar código malicioso en los sistemas afectados sin necesidad de autenticación previa.

Veeam Corrige 7 Fallas Críticas de Seguridad

Las vulnerabilidades descubiertas en Veeam Backup & Replication son especialmente preocupantes debido a la naturaleza crítica de estos sistemas en la infraestructura empresarial moderna. Los sistemas de respaldo son objetivos prioritarios para los ciberdelincuentes, ya que comprometerlos no solo permite acceso a información sensible, sino que también puede facilitar ataques de ransomware más devastadores al impedir la recuperación de datos. La capacidad de ejecutar código de forma remota convierte estas fallas en una amenaza de máxima prioridad que requiere atención inmediata.

La empresa ha instado a todos sus clientes a aplicar las actualizaciones de seguridad lo antes posible para proteger sus entornos de respaldo. Este tipo de vulnerabilidades subraya la importancia de mantener todos los sistemas actualizados y seguir las mejores prácticas de seguridad, especialmente en soluciones que manejan datos críticos del negocio. Los administradores de sistemas deben priorizar la implementación de estos parches para evitar posibles explotaciones que podrían comprometer la integridad de sus copias de seguridad y, por extensión, toda su estrategia de recuperación ante desastres.

En el contexto actual de ciberseguridad, donde las amenazas evolucionan constantemente, la rápida respuesta de Veeam al identificar y corregir estas vulnerabilidades demuestra la importancia del monitoreo continuo y la gestión proactiva de parches de seguridad en cualquier organización que dependa de soluciones de respaldo empresarial.

Fuente Original: https://thehackernews.com/2026/03/veeam-patches-7-critical-backup.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

SocksEscort Proxy Botnet Disrupted Across 163 Countries

Law enforcement authorities have successfully disrupted a massive proxy botnet operation known as SocksEscort, which had compromised approximately 369,000 IP addresses spanning 163 countries worldwide. This significant takedown represents a major victory in the ongoing battle against cybercrime infrastructure that facilitates malicious activities across the globe.

SocksEscort Proxy Botnet Disrupted Across 163 Countries

The SocksEscort botnet operated as a proxy service, essentially allowing cybercriminals to route their internet traffic through infected devices to mask their true locations and identities. By exploiting hundreds of thousands of compromised systems, the operators created a vast network that could be rented out to other malicious actors for various nefarious purposes, including fraud, data theft, and launching cyberattacks whilst remaining anonymous.

This type of proxy botnet infrastructure is particularly dangerous because it enables a wide range of criminal activities. Attackers can use these compromised IP addresses to bypass security measures, conduct credential stuffing attacks, distribute malware, and carry out fraudulent transactions without being traced back to their actual location. The sheer scale of this operation, affecting nearly 370,000 devices across 163 countries, demonstrates the global reach and sophistication of modern cybercriminal networks.

The disruption of SocksEscort highlights the importance of international cooperation in combating cybercrime and the ongoing need for robust cybersecurity measures. As cyber threats continue to evolve, adopting a Zero Trust security framework combined with artificial intelligence capabilities has become increasingly crucial for organisations seeking to protect their digital assets and remain resilient against such widespread attacks.

Fuente Original: https://thehackernews.com/2026/03/authorities-disrupt-socksescort-proxy.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

jueves, 12 de marzo de 2026

Gemini Embedding 2 IA Multimodal para Empresas

Google ha lanzado Gemini Embedding 2, un modelo de embeddings que promete revolucionar cómo las empresas gestionan e interpretan sus datos. A diferencia de modelos anteriores, este nuevo sistema puede procesar y unificar información de texto, imágenes, video, audio y documentos en un único espacio numérico. Esto no solo mejora la eficiencia, sino que también reduce costos al eliminar la necesidad de modelos separados para cada tipo de dato.

Gemini Embedding 2: IA Multimodal para Empresas

Los embeddings son, en esencia, la forma en que la inteligencia artificial organiza la información por significado, no solo por metadatos. Imagina una biblioteca donde los libros se agrupan por su "esencia" o temática, no por su título o autor. Gemini Emb edding 2 convierte datos complejos en vectores numéricos, representando su posición en un mapa de alta dimensión. Si dos elementos son semánticamente similares, sus "coordenadas" estarán cerca. Esta tecnología es la base de motores de búsqueda más inteligentes, sistemas de recomendación personalizados y, crucialmente para las empresas, la Generación Aumentada por Recuperación (RAG), donde los asistentes de IA consultan bases de conocimiento internas para responder preguntas precisas.

Lo que hace a Gemini Embedding 2 tan especial es su naturaleza intrínsecamente multimodal. Puede entender el audio como ondas sonoras y el video como movimiento directamente, sin necesidad de transcribirlo a texto primero. Esto minimiza errores de "traducción" y captura matices que se perderían en un enfoque basado puramente en texto. Para los desarrolladores y las empresas, esto se traduce en flujos de trabajo de IA más eficientes. Ahora es posible realizar búsquedas 'transmodales ', como usar una consulta de texto para encontrar un momento específico en un video o una imagen que coincida con un sonido particular. El modelo incluso puede procesar solicitudes que mezclan modalidades, como una imagen de un coche antiguo y la pregunta "¿Cuál es el tipo de motor?". Además, incorpora la técnica 'Matryoshka Representation Learning', que permite anidar información importante en las primeras dimensiones del vector, ofreciendo flexibilidad para optimizar el almacenamiento y la precisión según las necesidades.

Las pruebas de rendimiento muestran que Gemini Embedding 2 establece un nuevo estándar, superando a modelos anteriores en tareas de recuperación de texto, imagen y video, especialmente en audio y video, donde su arquitectura nativa evita la degradación del rendimiento asociada a las transcripciones. Para las empresas, esto significa la posibilidad de crear una 'Base de Conocimiento Unificada', permitiendo a la IA comprender las relaciones entre d iferentes tipos de datos. Socios tempranos como Sparkonomy han reportado reducciones de latencia de hasta el 70%, y Everlaw, una firma de tecnología legal, lo usa para encontrar evidencia crucial en litigios que antes pasaría desapercibida. Si bien existen límites en la cantidad de datos que se pueden procesar en una sola solicitud (por ejemplo, 6 páginas de un PDF, 128 segundos de video), estos límites se refieren a la entrada por solicitud, no a la capacidad de almacenamiento general de la base de datos. El modelo ya está disponible en vista previa pública a través de la API de Gemini y Vertex AI, con modelos de precios que varían según el tipo de datos y la escala de uso, ofreciendo también licencias permisivas para su integración y modificación.

Fuente Original: https://venturebeat.com/data/googles-gemini-embedding-2-arrives-with-nat ive-multimodal-support-to-cut

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT