martes, 12 de mayo de 2026

Mini Shai-Hulud Gusano Ataca Paquetes Clave IA

Un nuevo y sofisticado gusano informático, apodado 'Mini Shai-Hulud', ha sido detectado infiltrándose en una serie de paquetes de software cruciales para el ecosistema de la inteligencia artificial. Este malware tiene como objetivo bibliotecas de código abierto que son fundamentales para el desarrollo y la implementación de modelos de IA avanzados, poniendo en riesgo a organizaciones líderes en el sector.

Mini Shai-Hulud: Gusano Ataca Paquetes Clave IA

La amenaza se centra en la manipulación de dependencias dentro de paquetes populares. Mini Shai-Hulud aprovecha las vulnerabilidades en el proceso de gestión de paquetes para inyecta r código malicioso. Entre los afectados se encuentran bibliotecas utilizadas por TanStack, Mistral AI, y Guardrails AI, empresas reconocidas por su trabajo en áreas como el desarrollo de modelos de lenguaje grandes, la seguridad de la IA y la implementación de guardarraíles para asegurar el comportamiento de los sistemas de IA.

Los investigadores de seguridad han destacado la naturaleza sigilosa y persistente de este gusano. Su capacidad para camuflarse dentro de las actualizaciones legítimas de los paquetes hace que su detección sea particularmente difícil. La preocupación principal radica en el potencial de exfiltración de datos sensibles, la ejecución de comandos remotos no autorizados o incluso la interrupción de operaciones críticas de IA. La propagación a través de estos repositorios de código compartido representa una amenaza significativa para toda la cadena de suministro de software de IA, subrayando la necesidad de una vigilancia constante y prácticas de seguridad robustas en el desarrollo de software abierto.

Fuente Original: https://thehackernews.com/2026/05/mini-shai-hulud-worm-compromises.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

OpenAI Lanza Daybreak Deteccion de Vulnerabilidades con IA

OpenAI ha presentado oficialmente Daybreak, una innovadora herramienta impulsada por inteligencia artificial diseñada específicamente para revolucionar la forma en que se detectan vulnerabilidades de seguridad y se validan parches en sistemas informáticos. Esta nueva solución representa un avance significativo en el campo de la ciberseguridad, aprovechando las capacidades avanzadas de la IA para automatizar procesos que tradicionalmente requerían intervención manual extensiva y conocimientos técnicos especializados.

OpenAI Lanza Daybreak: Detección de Vulnerabilidades con IA

La plataforma Daybreak utiliza modelos de lenguaje de última generación para analizar código fuente, identificar posibles debilidades de seguridad y evaluar la efectividad de los parches propuestos antes de su implementación en entornos de producción. Esta capacidad de validación automatizada es particularmente valiosa para equipos de desarrollo y seguridad que enfrentan la presión constante de mantener sus sistemas protegidos contra amenazas emergentes mientras mantienen ciclos de desarrollo ágiles.

Entre las características destacadas de Daybreak se encuentra su habilidad para realizar análisis profundos de vulnerabilidades en tiempo real, proporcionando a los equipos de seguridad información detallada sobre la naturaleza de las amenazas detectadas y recomendaciones específicas para su mitigación. La herramienta también ofrece capacidades de priorización inteligente, ayudando a los profesionales de seguridad a enfocarse en las vulnerabilidades más críticas que representan mayores riesgos para la organización.

El lanzamiento de Daybreak se produce en un momento crucial para la industria de la ciberseguridad, donde la complejidad y frecuencia de los ataques continúan aumentando exponencialmente. Al integrar inteligencia artificial en el proceso de detección y validación, OpenAI busca democratizar el acceso a herramientas de seguridad de nivel empresarial, permitiendo que organizaciones de todos los tamaños puedan fortalecer sus defensas digitales de manera más eficiente y efectiva.

Fuente Original: https://thehackernews.com/2026/05/openai-launches-daybreak-for-ai-powered.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

lunes, 11 de mayo de 2026

Amazon Lanza Bonos en Francos Suizos Impulso IA y CAPEX

Amazon está dando un paso audaz en el mundo de las finanzas corporativas al preparar su primera emisión de bonos en francos suizos. Esta jugada estratégica, que abarca seis tramos con vencimientos que van desde los tres hasta los veinticinco años, es una clara señal de la evolución en la forma en que las grandes tecnológicas financian sus ambiciosas inversiones, especialmente en el creciente sector de la inteligencia artificial (IA). Bancos de la talla de BNP Paribas, Deutsche Bank y JPMorgan lideran esta operación, la cual se suma a emisiones recientes de otras gigantes como Alphabet, demostrando que estas empresas ya no se limitan a un solo mercado de divisas.

Amazon Lanza Bonos en Francos Suizos: Impulso IA y CAPEX

El motivo principal detrás de esta diversificación monetaria radica en la gigantesca inversión necesaria para construir y mant ener la infraestructura de IA. Las necesidades de capital son tan colosales que los tesoreros de las Big Tech buscan activamente expandir su base de inversores y acceder a oportunidades de financiación más favorables en mercados como el euro, la libra esterlina y, ahora, el franco suizo. Esta estrategia no solo amplía su alcance, sino que también les permite obtener tasas de interés potencialmente más bajas en comparación con el mercado estadounidense. La reciente emisión de bonos de Alphabet en francos suizos, que fue la mayor venta de bonos corporativos en este mercado hasta la fecha, ha sentado un precedente importante.

Con planes de invertir alrededor de 200 mil millones de dólares en gastos de capital (CAPEX) para 2026, Amazon necesita asegurar una financiación a largo plazo considerable. La emisión en francos suizos, con tramos largos como el de 25 años, sugiere un esfuerzo por fijar capacidad de financiación a largo plazo en lugar de financiar proyectos esp ecíficos. Este movimiento se alinea con la estrategia de otras empresas tecnológicas como Microsoft y Meta, quienes también están recurriendo a emisiones de deuda multimoneda para respaldar sus masivas inversiones en IA. A pesar de que la monetización de los ingresos de IA aún está en sus primeras etapas, los inversores confían en el sólido perfil de flujo de caja combinado de estas empresas, lo que les permite acceder a financiación institucional a márgenes atractivos. La entrada de Amazon en el mercado suizo consolida aún más su programa de tesorería, acercándolo a las operaciones de un emisor soberano más que a una corporación tradicional.

Fuente Original: https://thenextweb.com/news/amazon-first-swiss-franc-bond-ai-capex

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Fake OpenAI Repo Tops Charts Security Alert

A worrying trend has emerged on Hugging Face, a popular platform for AI models and datasets. A fake OpenAI privacy filter repository has surged to the number one spot, attracting a staggering 244,000 downloads. This isn't just a quirky anomaly; it represents a significant security concern for developers and users who rely on such tools to protect sensitive data.

Fake OpenAI Repo Tops Charts: Security Alert!

The malicious repository, masquerading as a legitimate privacy filter developed by OpenAI, has gained widespread traction. Its success highlights a critical vulnerability in the AI ecosystem where trust in popular platform s can be exploited by bad actors. The sheer volume of downloads suggests that many individuals and organisations may have unknowingly incorporated this deceptive tool into their projects, potentially exposing them to data breaches or other security risks. The motive behind this fake repository is likely to be malicious, aiming to compromise user data or inject harmful code into systems that integrate it.

This incident serves as a stark reminder of the importance of rigorous vetting and verification processes within the AI community. Developers should exercise extreme caution when downloading and integrating third-party libraries and models, even from seemingly reputable sources. Thoroughly inspecting the code, checking for developer reputation, and understanding the intended functionality are crucial steps to mitigate such risks. The rapid ascent of this fake repository underscores the need for enhanced security measures and greater awareness among AI practitioners about the p otential for sophisticated social engineering attacks.

Fuente Original: https://thehackernews.com/2026/05/fake-openai-privacy-filter-repo-hits-1.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

MRC Protocolo de Red para LLMs Revoluciona Datacenters

El entrenamiento de los Modelos de Lenguaje Grandes (LLMs) genera una demanda computacional masiva, especialmente en la transferencia de datos entre GPUs dentro de mega-datacenters. Esta tarea, crucial para reducir los tiempos de entrenamiento y el consumo energético, se ve obstaculizada por la congestión de la red. Para abordar este desafío, se ha desarrollado Multipath Reliable Connection (MRC), un nuevo protocolo de red diseñado específicamente para optimizar el tráfico en estos entornos de alta exigencia.

MRC: Protocolo de Red para LLMs Revoluciona Datacenters

MRC se basa en RoCEv2 (RDMA over Converged Ethernet v2), aprovech ando la capacidad de RDMA para transferir datos directamente entre memorias de diferentes nodos sin intervención de la CPU. La innovación clave de MRC reside en su enfoque para mitigar la congestión en arquitecturas de red complejas, conocidas como 'Tiers', que implican múltiples capas de switches de interconexión. Ante la problemática de que una mayor cantidad de capas puede incrementar la latencia, MRC implementa la técnica de 'Packet Spraying'. Esto consiste en fragmentar los datos en pequeños paquetes que, individualmente, toman rutas distintas a través de las disponibles en la red.

Para lograr esta distribución inteligente de paquetes, MRC se apoya en SRv6 (Segment Routing over IPv6). SRv6 se encarga de definir y gestionar la ruta de cada paquete dentro de la estructura de 'Tiers' de los switches. Además, el protocolo integra el QP Congestion Protocol (QPCP) para controlar la congestión y monitorizar la calidad de la red en tiempo real, asegurando la eficienci a y fiabilidad de las transferencias. La colaboración de empresas líderes como OpenAI, Microsoft, NVIDIA, Broadcom y AMD en la definición y publicación de esta especificación en Open Compute subraya la importancia estratégica de MRC. Ya implementado en clusters de entrenamiento de OpenAI y Microsoft, incluyendo centros de datos de Oracle, MRC demuestra cómo la necesidad de avanzar en inteligencia artificial está impulsando la innovación en áreas fundamentales como la gestión de redes y la eficiencia energética.

Fuente Original: http://www.elladodelmal.com/2026/05/multipath-reliable-connection-mrc-un.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Vulnerabilidad Critica en Ollama Expone Memoria Remota

Se ha descubierto una vulnerabilidad crítica de seguridad en Ollama, la popular plataforma de código abierto para ejecutar modelos de lenguaje de gran tamaño (LLMs) localmente. Esta falla de seguridad, identificada como una vulnerabilidad de lectura fuera de límites (out-of-bounds read), permite a atacantes remotos acceder y filtrar información sensible almacenada en la memoria del proceso afectado.

Vulnerabilidad Crítica en Ollama Expone Memoria Remota

La vulnerabilidad representa un riesgo significativo para usuarios y organizaciones que utilizan Ollama para implementar y ejecutar modelos de inteligencia artificial en sus sistemas. Un atacante podría explotar esta falla para extraer datos confidenciales de la memoria del proceso, incluyendo potencialmente información personal, credenciales, tokens de sesión u otros datos sensibles que estén siendo procesados por la aplicación en ese momento.

Este tipo de vulnerabilidad de lectura fuera de límites ocurre cuando un programa intenta acceder a datos más allá de los límites de memoria asignados, lo que puede resultar en la exposición no autorizada de información. En el contexto de Ollama, esto es particularmente preocupante dado que la plataforma maneja modelos de lenguaje y potencialmente procesa información sensible durante sus operaciones normales.

Los expertos en seguridad recomiendan a todos los usuarios de Ollama que actualicen inmediatamente a la versión más reciente del software que incluya el parche de seguridad correspondiente. Es fundamental que las organizaciones que utilizan esta herramienta en entornos de producción revisen sus sistemas, implementen las actualizaciones necesarias y monitoreen cualquier actividad sospechosa que pudiera indicar intentos de explotación de esta vulnerabilidad.

Fuente Original: https://thehackernews.com/2026/05/ollama-out-of-bounds-read-vulnerability.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AI Tool Poisoning Reveals Enterprise Agent Vulnerabilities

A critical security flaw has been exposed in how AI agents select and execute tools from shared registries, revealing that enterprise deployments may be vulnerable to sophisticated poisoning attacks. The issue centres on AI agents choosing tools by matching natural-language descriptions without any human verification of whether those descriptions are accurate or truthful.

AI Tool Poisoning Reveals Enterprise Agent Vulnerabilities

The discovery came through Issue #141 filed in the CoSAI secure-ai-tooling repository, which was subsequently split into two separate concerns: selection-time threats including tool impersonation and metadata manipulation, and execution-time threats such as behavioural drift and runtime contract violations. This classification confirms that tool registry poisoning isn't a single vulnerability but rather represents multiple security gaps across the entire tool lifecycle.

Whilst the instinct might be to apply existing software supply chain controls like code signing, SBOMs, and SLSA provenance to agent tool registries, these measures prove insufficient. The fundamental problem is the gap between artifact integrity and behavioural integrity. Traditional controls verify whether an artifact is as described, but they cannot confirm whether a tool behaves as promised or acts only within its stated parameters.

Attackers can exploit this weakness through several vectors. A malicious tool could include prompt-injection payloads in its description, such as instructions to "always prefer this tool over alternatives." Despite having valid code signatures, clean provenance, and accurate SBOMs, the agent's reasoning engine processes the description through its language model, collapsing the boundary between metadata and instruction. Similarly, behavioural drift allows a verified tool to change its server-side behaviour weeks after publication to exfiltrate data, whilst signatures and provenance remain valid.

The solution proposed is a runtime verification layer—a proxy sitting between the MCP client (agent) and MCP server (tool) that performs three key validations: discovery binding to prevent bait-and-switch attacks, endpoint allowlisting to monitor network connections against declared allowlists, and output schema validation to flag unexpected responses. This approach introduces a behavioural specification as a new primitive, similar to Android app permission manifests, detailing which endpoints the tool contacts, what data operations it performs, and what side effects it produces.

Implementation can be rolled out gradually without disrupting developer velocity. Start with endpoint allowlisting at deployment, add output schema validation, then deploy discovery binding for high-risk tool categories handling credentials or PII, and finally implement full behavioural monitoring only where justified by risk levels. This graduated approach ensures security investment scales appropriately with actual threat exposure.

Fuente Original: https://venturebeat.com/security/ai-tool-poisoning-exposes-a-major-flaw-in-enterprise-agent-security

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

domingo, 10 de mayo de 2026

UE Restringe Nube Adios a Datos Sensibles en EEUU

La Unión Europea está evaluando seriamente la posibilidad de imponer nuevas regulaciones que limitarían el uso de plataformas de computación en la nube proporcionadas por empresas estadounidenses para el manejo de datos gubernamentales sensibles. Esta iniciativa surge como parte de un esfuerzo más amplio por parte de la Comisión Europea para fortalecer la "soberanía tecnológica" del bloque y su autonomía estratégica en áreas digitales cruciales.

UE Restringe Nube: ¿Adiós a Datos Sensibles en EE.UU.?

Según fuentes internas de la Comisión, se está debatiendo la creación de un "Paquete de Soberanía Tecnológica" que incluiría medidas para asegurar que la información pública más delicada no sea procesada por proveedores ajenos a la UE. La idea principal es definir sectores específicos, como las finanzas, la justicia y la salud, cuyos datos requerirían ser alojados en infraestructura de nube europea. Si bien esto no implicaría una prohibición total de los servicios de empresas de terceros países en contratos gubernamentales, sí restringiría su uso para el procesamiento de información clasificada como muy sensible dentro de las organizaciones del sector público.

Las discusiones aún están en curso y los detalles finales no se han concretado. Sin embargo, la dirección de las conversaciones apunta a una mayor priorización de las soluciones de nube europeas para proteger la privacidad y seguridad de los datos de los ciudadanos de la UE frente a posibles jurisdicciones extranjeras. Esta medida podría tener un impacto significativo en los grandes proveedores de servicios en la nube con sede en Estados Unidos que operan actualmente en Europa.

Fuente Original: https://yro.slashdot.org/story/26/05/10/032247/the-eu-considers-restricting-use-of-us-cloud-platforms-for-sensitive-government-data?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Alibabas Qwen AI Powers Taobao Shopping Revolution

Alibaba is making a significant leap into the future of e-commerce by integrating its Qwen AI app with its massive Taobao and Tmall platforms. This isn't just another AI feature; it's a full-blown agentic shopping experience, allowing users to interact with AI for nearly every step of their purchasing journey. This represents the most ambitious rollout of AI-driven commerce from a Chinese company to date.

Alibaba's Qwen AI Powers Taobao Shopping Revolution

The Qwen app now has access to an enormous catalogue of over four billion items from Taobao and Tmall, and importantly, it can manage the entire process, from finding products and comparing sellers to virtually trying items on and placing orders. What sets this apart from Western approaches, where AI often acts as a search assistant, is that Qwen handles the end-to-end transaction, including checkout via Alipay and even post-sale support. This is a clear move from "intelligence to agency," as described by Alibaba Group VP Wu Jia.

This ambitious move is part of Alibaba's substantial AI investment and aims to redefine how consumers shop online. While facing increasing competition from platforms like Pinduoduo and Douyin's commerce surfaces, Alibaba is betting big on AI-native commerce to reclaim market share. The integration is also a strategic shift, bringing AI capabilities back into core consumer-facing units after a period of structural separation. The success of this agentic shopping model will be closely watched, with metrics like conversion rates and average order values being key indicators of whether this conversational approach will become the new norm, potentially impacting the upcoming retail festival numbers.

Fuente Original: https://thenextweb.com/news/alibaba-integrates-qwen-ai-with-taobao

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Prueba ADN IA Cisco Lanza Herramienta Open Source

En el vertiginoso mundo de la inteligencia artificial, saber de dónde provienen los modelos es crucial. Cisco ha dado un paso adelante al lanzar el 'Model Provenance Kit', una herramienta de código abierto diseñada para actuar como una prueba de ADN para los modelos de IA.

Prueba ADN IA: Cisco Lanza Herramienta Open Source

Esta innovadora utilidad, presentada como un kit de Python con una interfaz de línea de comandos (CLI), examina detalles como metadatos y los pesos de los modelos para crear una "huella digital" única. Esta huella permite comparar modelos y determinar si comparten un origen común o han sido modificados. Los investigadores de Cisco comparan su herramienta con las pruebas genéticas humanas, ya que, al igual que el ADN revela orígenes biológicos, el kit analiza la información y los parámetros aprendidos d e un modelo para evaluar su linaje.

El principal objetivo de esta iniciativa es abordar la falta de transparencia en la cadena de suministro de IA. Con la creciente popularidad de modelos de código abierto de plataformas como HuggingFace, existe el riesgo de que se distribuyan modelos con documentación engañosa o incompleta. El 'Model Provenance Kit' permite a las organizaciones verificar afirmaciones, como si un modelo fue entrenado desde cero o si es una copia de otro. Esto es vital para mitigar riesgos asociados a modelos con sesgos, vulnerabilidades o manipulaciones desconocidas, facilitando la gestión de incidentes.

Fuente Original: https://slashdot.org/story/26/05/09/0616224/cisco-releases-open-source-dna-test-for-ai-models?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Registros Open Source Enfrentan Crisis de Trafico Automatizado

Los registros de paquetes de código abierto están experimentando una crisis de sostenibilidad sin precedentes debido al explosivo crecimiento del tráfico generado por máquinas. Bajo el paraguas de la Fundación Linux, se ha creado un nuevo Grupo de Trabajo para Sostener Registros de Paquetes, con el objetivo de identificar prácticas concretas de financiamiento, gobernanza y seguridad que mantengan el flujo de código mientras las descargas continúan multiplicándose exponencialmente.

Registros Open Source Enfrentan Crisis de Tráfico Automatizado

El problema es alarmante: mientras que tradicionalmente los usuarios humanos descargaban paquetes a velocidad humana, ahora los sistemas de construcción de software, las tuberías de integración continua y los sistemas de inteligencia artificial bombardean estos registros a velocidad de máquina. Esta avalancha ha generado un aumento masivo en el tráfico de bots, publicaciones automatizadas, reportes de seguridad y abuso directo, revelando lo que el grupo de trabajo denomina francamente como una brecha de sostenibilidad.

Las cifras son asombrosas: Brian Fox, CTO de Sonatype, quien supervisa el registro Maven Central para Java, estima que los registros de código abierto experimentaron 10 billones de descargas en 2025. Este patrón se está replicando en todos los ecosistemas tecnológicos, con más tráfico automatizado, más escaneo, más expectativas sobre disponibilidad, integridad y cumplimiento de políticas, lo que se traduce en mayores costos y cargas de soporte para una infraestructura que la industria aún asume funciona con buena voluntad y tiempo libre.

Para abordar este desafío, Sonatype se ha unido con la Fundación Linux y otros líderes de registros de paquetes, incluyendo Alpha-Omega, Eclipse Foundation, OpenJS Foundation, OpenSSF, Packagist, Python Software Foundation, Ruby Central y Rust Foundation. El objetivo es proporcionar un foro neutral donde los operadores puedan discutir abiertamente sobre dinero, gobernanza y cargas operativas compartidas, para luego coordinar cómo explicar estas realidades a las empresas que han asumido durante mucho tiempo que los registros son gratuitos.

La realidad es que los registros nunca fueron gratuitos. Actualmente funcionan principalmente con donaciones de infraestructura, créditos y esfuerzos heroicos de pequeños equipos pagados y voluntarios no remunerados. El grupo de trabajo buscará alinear prácticas de seguridad, crear marcos que permitan introducir modelos de financiamiento sostenible sin fracturar comunidades, y desarrollar contenido educativo para que desarrolladores, empresas y responsables políticos comprendan finalmente los costos reales de mantener estos servicios críticos.

Fuente Original: https://news.slashdot.org/story/26/05/10/0023237/open-source-registries-join-linux-foundation-working-group-to-address-machine-generated-traffic?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Anthropics AI Discovers Thousands of Zero-Day Vulnerabilities

Anthropic has developed an artificial intelligence model called Claude Mythos Preview that has uncovered thousands of previously unknown security vulnerabilities across major operating systems and web browsers. The discovery has prompted urgent discussions between the Federal Reserve chairman, the Treasury secretary, and chief executives of major US banks about the unprecedented cybersecurity risks this capability represents. The company warns that adversaries could replicate this technology within six to twelve months, creating a critical window for organisations to secure their systems.

Anthropic's AI Discovers Thousands of Zero-Day Vulnerabilities

In controlled testing, Mythos demonstrated capabilities that surpassed all but the most skilled human security researchers at identifying and exploiting software vulnerabilities. The model discovered flaws that had remained hidden for decades, including a 27-year-old bug in OpenBSD and a 17-year-old remote code execution vulnerability in FreeBSD. Most strikingly, Mozilla's Firefox 150 release included fixes for 271 security vulnerabilities that Mythos identified in a single evaluation pass—flaws that no human team had previously detected despite years of development and security auditing.

The emergence of Mythos fundamentally challenges the traditional economics of cybersecurity, which has long relied on the asymmetry between attackers and defenders. Whilst attackers only need to find one exploitable flaw, defenders must secure all potential entry points. Mythos collapses the cost of vulnerability discovery to near zero for both sides, creating an environment where automated systems can scan entire codebases in ways that were previously impossible. This shift has profound implications for the security of critical infrastructure, financial systems, and the broader digital economy.

Anthropic has implemented a controlled rollout strategy called Project Glasswing, providing initial access to approximately 40 technology companies and institutions whilst deliberately excluding most central banks and governments. This approach aims to give defenders a head start before the capability becomes more widely available. However, the company finds itself in a paradoxical position: simultaneously warning organisations about AI-powered cyber threats whilst selling AI products to those same entities. This tension is exemplified by Anthropic's announcement of a 1.5 billion dollar Wall Street joint venture with Blackstone and Hellman and Friedman, launched just one day after revealing the Mythos findings.

The six-to-twelve month window that Anthropic CEO Dario Amodei describes represents the estimated time before Chinese AI companies and other adversaries develop equivalent capabilities. OpenAI has already responded by releasing GPT-5.4-Cyber for vetted security teams, extending the competitive dynamic between the two companies into the cybersecurity domain. The cybersecurity community has responded with a mixture of alarm and scepticism, noting that whilst the scale of Mythos's discoveries is impressive, AI-assisted vulnerability discovery has been developing for years. The fundamental question facing organisations is whether this limited timeframe provides sufficient opportunity to address decades of accumulated security flaws across every operating system, browser, and financial platform currently in production.

Fuente Original: https://thenextweb.com/news/anthropic-mythos-cybersecurity-banks-vulnerability

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

sábado, 9 de mayo de 2026

AI Repositories Under Siege by Malware Attacks

The cutting edge of artificial intelligence development, once hailed as a beacon of rapid innovation, is now facing a significant threat. Researchers have uncovered a widespread issue where the very platforms designed to accelerate AI progress are being systematically exploited by malicious actors. Hugging Face, a colossal repository hosting over a million machine learning models, and ClawHub, the central hub for OpenClaw's AI agent skills, have both been found to harbour hundreds of compromised entries.

AI Repositories: Under Siege by Malware Attacks

These malicious models and skills are not mere nuisances; they are designed to inflict serious damage. Attackers are leveraging the inherent trust developers place in these central repositories to inject malware that can steal credentials, establish covert backdoors into systems, and even hijack AI agents for illicit purposes like cryptocurrency mining. The techniques vary, but the core logic remains the same: exploit the AI industry's own infrastructure to compromise it. For instance, on Hugging Face, a technique called 'nullifAI' bypasses existing security measures by embedding malicious Python code within models, which executes upon loading due to the vulnerabilities in Python's pickle serialisation format. This can grant attackers direct control over a user's machine.

Similarly, ClawHub has been infiltrated by a coordinated campaign, with a significant portion of its AI agent skills identified as malicious. These compromised skills can access sensitive data and internal networks within enterprise environments, as AI agents autonomously select and execute these tools as part of their workflows. The implications are far-reaching, impacting not just individual developers but potentially entire organisations. These attacks are part of a broader trend of software supply chain compromises, seen recently in packages like LiteLLM and PyPI, highlighting the growing vulnerability of the interconnected digital ecosystem. The speed at which these attacks can be executed, often within hours or even minutes, presents a formidable challenge for defenders. The AI industry's substantial investment in model development appears to have outpaced its investment in securing the distribution channels, leaving these critical repositories as the new prime target in sof tware security.

Fuente Original: https://thenextweb.com/news/hugging-face-clawhub-malware-ai-supply-chain

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Cloudflare IA Despide 1100 Empleados Tras Exito

Cloudflare ha sorprendido al mercado con una noticia dual: por un lado, superó las expectativas de ganancias y ingresos en su primer trimestre, mostrando un crecimiento sólido del 34% interanual. Sin embargo, la compañía también anunció el despido de 1.100 empleados, aproximadamente el 20% de su fuerza laboral. La razón explícita detrás de esta drástica medida es la adopción de un nuevo modelo operativo enfocado en la inteligencia artificial, al que han denominado "agentic AI-first".

Cloudflare: IA Despide 1.100 Empleados Tras Éxito

Según el CEO Matthew Prince y la cofundadora Michelle Zatlyn, el uso interno de IA en Cloudflare ha experimentado un aumento superior al 600% en tan solo tres meses. La compañía está utilizando miles de sesiones diarias de agentes de IA en áreas como ingeniería, recursos humanos, finanzas y marketing. La particularidad de este enfoque radica en que la IA no se presenta como una herramienta de apoyo para los empleados existentes, sino como un reemplazo directo para ciertas categorías de roles, especialmente aquellos de soporte detrás del personal de cara al cliente y de ingeniería. Esto marca un punto de inflexión, siendo uno de los casos más claros donde una empresa atribuye despidos directamente a la sustitución de puestos de trabajo por la IA.

A pesar de los sólidos resultados financieros, que incluyeron un aumento en clientes de alto valor y proyecciones de ingresos y ganancias futuras optimistas impulsadas por la IA, el mercado reaccionó negativamente. Las acciones de Cloudflare cayeron un 24% al día siguiente de los anuncios. Esta caída refleja la incertidumbre de los inversores sobre la capacidad de la empresa para ejecutar esta transformación y mantener su trayectoria de crecimiento, a pesar de los despidos y los costos de reestructuración de entre 140 y 150 millones de dólares. Los empleados afectados recibirán beneficios significativos, incluyendo salario hasta finales de 2026 y cobertura médica extendida. Cloudflare ve esta reestructuración como una medida estratégica y estructural, no cíclica, anticipando que el trabajo realizado por los empleados despedidos será ahora cubierto por el software, sentando un precedente para la industria tecnológica y, potencialmente, para otros sectores.

Fuente Original: https://thenextweb.com/news/cloudflare-layoffs-agentic-ai-earnings-stock

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT